ATI 3850 oder bis März warten?

Wizzard_Slayer

Lt. Commander
Registriert
Apr. 2003
Beiträge
1.802
Ich suche eine billige stromsparende Graka die auch noch ne ordentliche Leistung hat falls doch mal wieder ein geniales Spiel rauskommt.

Im Moment zogg ich fast garnicht und darum brauch ich die 8800GTX auch nicht mehr. Verbraucht nur unnütz Strom. Naja jedenfalls tendiere ich zur 3850 von ATI, oder soll ich doch lieber noch bis März warten wenn Nvidia seine neue Serie rausbringt?

Weiß man schon irgendetwas darüber? Vielleicht werden die neuen Geforce karten ja nochn Tick schneller sein und verbrauchen noch weniger Strom.

Ich weiß ehrlich gesagt nicht was ich jetzt machen soll. Warten und ne billige Übergangskarte ala' 2400XT oder sowas kaufen oder die 3850.

Überzeugt mich :D
 
wiederspricht sic doch

die highend karten im märz verbrauchen bestimmt mehr strom als eine 3850
die 9600 soll langsamer als ne 8800gt sein

und mit der 2400xt kannste nix spielen^^

3850 könntest du aber im märz immernoch gut verkaufen
 
Übergangskarte wäre wenn schon eine passive 2600xt.....

Ich würde jetzt eine HD3850 kaufen...
 
Kommt drauf an, was du gerne Spielst.

Anno 1701 läuft bei mir mit alles auf High ohne AA flüssig in 1360x768. Sobald AA an ist, schwindet die Performance. Das gleiche gilt für World in Conflict - identisches Verhalten.

Crysis läuft auf alles High für mich ausreichend gut. Könnte natürlich besser sein, aber der kommende Patch wirds vermutlich noch verbessern. Besser als auf einer GTS 320 (vorherige Karte).

Solange du max 150€ dafür ausgeben musst, ist das ein lohnender Kauf, wenn du mit den gemachten Aussagen zurecht kommst.

edit: Wic und Crysis natürlich DX10 unter Vista
 
Ich würde diese Geldvernichtungsaktion bleiben lassen und bei der 8800GTX bleiben.;)

Soviel Strom kann die im Idle gar nicht verblasen, als dass sich ein Grafikkartenneukauf rentieren würde.

Falls du wirklich deine 8800GTX verkaufen möchtest, ich wäre daran interessiert.;)
 
naja geldvernichtungsaktion wohl eher nicht. für seine gtx bekommt er noch weit mehr geld, als er für eine hd3850 bezahlt. von daher würd sich das schon lohnen... und wenn du in nicht allzu hohen auflösungen spielst, also zb 1280*1024 und auch mal auf aa+af verzichten kannst, ist die 3850 genau richtig.
 
Wenn du bei der HD3750 dann bleiben möchtest, würde es sich lohnen. Ansonsten bleib bei deinerr 8800GTX.
Downgraden (leistungstechnisch) kann aber schon mal in die Hose gehen.
 
Hier etwas zu 9600GT:
http://hardtecs4u.com/news/1054
Natürlich Spekulation, das mit den 64 Shadern/256Bit SI dürfte aber stimmen. Ich glaube nicht, dass sie schneller sein wird als eine HD3850.
Wenn du nicht mehr spielst, brauchst du keine 8800GTX, dann aber auch keine HD3850^^.
Im Endeffekt kannst es nur du wissen, was du möchtest;-)
 
Danke erstmal für die vielen Antworten. Naja da der Rechner fast nonstop läuft und auch nicht soviel Geld hab mir noch nen reinen office/htpc zu kaufen, merkt man den unterschied schon wenn die GTX raus ist ;). Was meint ihr wie der Stromverbrauch unterschied zwischen der 256MB und der 512MB Variante ist? Weil dann würd ich doch eher zur 512er greifen.
 
Eine GF8 verbrät im Idle schon ne ganze Menge. Das ist wirklich nicht zu verachten.
Und die 8800GTX liegt da ja nochmal fast an der Spitze.

Was die GF9 angeht, ist die von der Technik her der GF8 ja sehr ähnlich. Also denke ich mal, dass auch diese keinen Stromsparmechanismus hat. Einzig durch eine (im Gegensatz zur GTX) kleinere Fertigung könnten ein paar Watt eingespart werden.
Aber von einer HD3850 wird sie wohl weit entfernt bleiben.

Ob sich eine HD3850 mit 512MB lohnt ist btw eine andere Frage. In den meisten Spielen bringts noch keinen großen Unterschied. Dann eher die HD3870.
Was den Stromverbrauch angeht, wirds wohl so viel nicht sein... Vll 5 Watt? :rolleyes:

Kannst ja nen Test suchen.

EDIT: Die 8800GTX geht ja bei ebay teilweise bis 300€. Da machste selbst bei einer HD3870 noch Gewinn ;)
Würde also eher zwischen HD3850 256MB und HD3870 entscheiden. Je nachdem, wie wichtig dir Spiele nun noch sind. Im Verbrauch unterscheidenen sie sich im Idle nur um 5 Watt. Die GTX hingegen braucht 70(!) Watt mehr
 
Zuletzt bearbeitet:
naja die 512er war halt sone überlegung da ich nen 22" Monitor habe. Und die GTX bin ich für 310€ losgeworden :)
Wer dann aber wahrscheinlich doch zur 256er greifen.
 
Nebulus Jones schrieb:
edit: Wic und Crysis natürlich DX10 unter Vista

Vista 32bit oder 64bit?

Bei nVidia Karten hört man des öfteren, dass man bei Crysis auf 64bit Systemen gerne mal eine Qualitätsstufe runter muss.
Nun stelle ich mir die Frage, ob das an den nVidia Treibern liegt oder an Crysis.
Und ob das bei ATI Karten auch der Fall ist.

Weiß das jemand?
 
Du könntest auch noch auf ein Mainboard mit Onboard GPU umrüsten und die GTX behalten.
Dann kannst du die GTX zu und wegschalten im Bios.

Oder zieht sie auch viel strom wenn eigentlich der Onboardchip Aktiv ist und die Karte "abgeschaltet"?
hmmm....
 
Knall dir eine paar Energiesparbirnen in die Wohnung, spart weit mehr als die Graka zu tauschen.
 
@Rasemann
er hat seine GTX doch schon verkauft! (#11)
Also ich würde dir eine HD3850 empfehlen und zwar mit 512mb.
Gründe:
256mb Version zu lahm für 22" und die meisten Spiele profitieren ja schon in 1280*1024 von den 512mb VRam.
Die HD3870 ist zwar eine geniale Karte aber nur wegen DDR4 und mehr Takt (soweit ich das sehe erreichen alle 50er ebenfalls den Takt der 70er) ~40€ mehr auszugeben...
Der Unterschied bzgl. des Stromverbrauchs im Idle ist nur ~6W. (Da sich die 70er und 50er beide im Idle runtertakten seh ich die Differenz nur noch an der Menge des VRams oder?
https://www.computerbase.de/2007-12/test-nvidia-geforce-8800-gts-512/27/#abschnitt_leistungsaufnahme
Hoffe dir ein bischen geholfen zu haben :)
 
Hä? Das sage ich doch, dass der Unterschied nicht gross ist, bzgl. des Stromverbrauchs! Oder willst du auf die Leistung raus?
 
Er meint die Leistung. Und ich hab bisher auch keine Benchmarks gesehen die den Unterschied zwischen der 256 und der 512MB version zeigen
 
https://www.computerbase.de/2006-10...-mb/20/#abschnitt_performancerating_qualitaet
Ich hab nach einem Test gesucht, bei dem 2 identische Karten verglichen werden (bis auf den Speicher) was bei den HD´s ja nicht der Fall ist da sie unterschiedlich takten.
Hier beträgt der Unterschied in 1600*1200 mit AA/AF 8% was aber bei neueren Spielen etwas grösser sein dürfte. Aber ich will dich ja nicht überreden sondern dir nur einen Ratschlag geben, was ich an deiner Stelle gemacht hätte...
 
Zurück
Oben