Geforce 9600GT vs. 9800GT vs. 8800GT

@te
ich würde dir zu dieser graka raten klack
Grund:
-Für die auflösung absolut ausreichend
-Absolut klasse kühlung für den preis, vorallem auch sehr leise
-Gutes OC potenzial dank niedrigen temps
-Fairer Preis

mfg
 
Kann es nicht sein, dass diese vom Prozessor um einiges ausgebremst werden würde? Was der TE für ein Netzteil hat, wissen wir immernoch nicht :rolleyes:
 
Nö ausgebremst wird sie nicht, der te möcht ja in hohen und nicht minimalen details spielen ;)
Zur not könnte er seine CPU ja noch etwas übertakten, aber ich denke das wird nicht nötig sein.
Aber da hast du recht, es wäre nicht schlecht sein nt zu kennen :D

mfg
 
Er hat sich ja eh einen X2 zugelegt...
 
Naja, ich würds auch nicht paaren, aber zur Not gehts schon :D.
 
Die verlinkte Elitegroup 9800GT dürfte für dich die wohl beste Wahl sein.
Clear Sky und Crysis laufen mit der Karte und dem x2 4600+ auf jeden Fall in mittleren bis hohen Einstellungen flüssig (bei 1024x768 oder 1280x0124).
Wenn du noch ein paar Euro sparen möchtest, kannst du dich auch ruhigen Gewissens mit einer 8800GS 768MB zufrieden geben. Mit ein wenig OC hast du damit sogar die gleiche Leistung wie mit der 8800GT @default.
http://www.hardwareschotte.de/hardw...6/preis_XPERTVISIONPALIT+GeForce+8800GS+Sonic
 
So, ich schalte mich hier ein.

Ich habe einen 939 X2 4200+. Crysis spiele ich auf hoch in 1920 auf mittel bis hoch recht flüssig im Bereich von 25 Frames. Stalker läuft auf max in der gleichen Auflösung richtig flüssig.
In 1280 lauft Crysis in maximalen Einstellungen.

Achso, Grafikkarte ist eine 8800GT. Spielen tue ich hauptsächlich ohne AA/AF. Man kann auch übertreiben mit Prozessorabhängigkeit.
Das einzigste Spiel, was die Bildrate bei mir runtersetzt ist Cupreme Commander.

Mit dem 4600+ lohnt sich weiterhin eine aktuelle und schnelle Grafikkarte. Der Prozessor hat genug Leistung. Du kannst dir gerne eine aktuelle ATI 48xx oder etwas von nvidia gönnen.

Gruß
 
@ der Nachbar

Ja. Ich spiele Crysis mit meinem x2 4600+ und der 8800GT 256MB auch in komplett hohen Einstellungen und empfinde das auch als flüssig (22-50fps).
Ich habe mich etwas zurückhaltend ausgedrückt, weil eben manche erst ab 40 oder 50 fps ein Gameplay wirklich für "flüssig" halten.
Stalker Clear Sky spiele ich allerdings nicht komplett in hohen Einstellungen. Die meisten (bzw. alle) stelle ich irgendwo zwischen "mittel" und "max".
Das alte Stalker (Shadow of Tschernobyl) allerdings läuft tatsächlich komplett @max.
Crysis Warhead spiele ich in "custom", Physikeffekte @max. mit etwa 30-70 fps.

Der Athlon x2 4600+ reicht im Standardtakt auf alle Fälle für Karten wie HD3870, 9600GT, 8800GS, 8800GT, 9800GT und HD4850.
Ab HD4870 oder 9800GTX würde ich dann aber schon nen schnelleren Prozessor empfehlen, oder eben den 4600er auf 2,8-3,0 GHz übertakten.
Wer sich eine GTX280 erlauben kann, der sollte imho auch genug Geld für einen E8400 o.ä. zur Verfügung haben.
Bei solchen Grafikkarten ist der x2 4600+ dann auch wirklich "überfordert", d.h. es kann keine optimale Leistung erzielt werden. Ich schätze, dass da bestimmt 25% fps verloren gehen.

Eine 9800GTX verliert mit einem E2160 @ 2,41GHz schon ca. 12% gegenüber der Kombination mit einem E6750 @2,67GHz.
http://www.tomshardware.com/de/CPU-oder-GPU-Nvidia-Intel,testberichte-240002-16.html
Den Benchmarks zufolge würde der x2 4600+ mit der 9800GTX ziemlich genau 30% weniger fps zustande bringen als der E6750 mit der 9800GTX.
Für mein Empfinden ist da auf jeden Fall eine Grenze erreicht, wo ich dann entweder eine langsamere Karte oder eben noch einen schnelleren Prozessor dazu kaufen würde.
(siehe auch hier: http://www.tomshardware.com/de/charts/desktop-cpu-charts-q1-2008/Quake-IV,389.html)

Nachdem ich mir die Ergebnisse der ganzen Benchmarks nochmal durch den Kopf gehen lassen habe, komme ich zu dem Ergebnis, dass die 9600GT oder eine 8800GS am besten zu dem x2 4600+ @ 2,4GHz passen würden. Denn bei diesen Kombinationen ist die "Verlustleistung" am geringsten. Anders ausgedrückt, ist die erreichte Leistung fast als "optimal" zu bezeichnen.
Da die 9600GT auch für einen sehr guten Preis (80€ + VK) erhältlich ist, würde ich folgende empfehlen:
http://www.hardwareschotte.de/hardw..._XPERTVISIONPALIT+GeForce+9600GT+XNE9600TT352

Mein Favorit bleibt aber die oben genannte XpertVision 8800GS 768MB für den gleichen Preis.
Durch ihr OC-Potenzial ist sie nämlich etwa 10-25% schneller als die 9600GT.
http://en.expreview.com/2008/02/23/geforce-9600gt-review.html?page=13
 
Zuletzt bearbeitet:
Um das thema mal ein wenig weiterzuführen:

Wie schauts mit dem prozentualen leistungszuwachs zwischen einer
Xpertvision Palit GF 9600GT Super
und einer
Zotac GF 9600 GT
aus.

Würde mich mal rein statistisch interessieren wieviel das schätzungsweise mehr rauskommen, da ich selber eher ungern übertakte.

ich schick sobald ich wieder zeit habe noch ein paar PMs raus.

**Edit: obwohl ich ja den Kühler von der Palit sowie das grüne PCB hässlich find ;)
 
Zuletzt bearbeitet:
Ist nicht spürbar. Wenn musst du selber anständig hochtakten.
 
Die Zotac hat die Referenzkühlung. Bin mir nicht sicher, aber ich glaube diese ist der Lösung von Palit vorzuziehen...
 
da ich selber eher ungern übertakte.

Kann ich verstehen. Denn ich hab auch mal so gedacht wie du.
Aber mich hat das Thema weiterhin interessiert.
Und so habe ich mr so einige OC-Threads angeguckt, und mir mal eine Rivatuner-Bedienungsanleitung angeschaut.
Dabei habe ich erkannt, dass OC nicht gefährlich ist, wenn man vorsichtig vorgeht.
Mit dem Rivatuner ist das auch sowas von einfach.
Solltest du mit dem Gedanken spielen und dir die 8800GS kaufen wollen.. da kann ich dir nahezu garantieren, dass du folgende Werte einstellen kannst, ohne etwas zu überprüfen:
Chiptakt: 700MHz
Ramtakt: 1000MHz
Shadertakt: 1600MHz

Ich denke, da werden mir gut 90% der CB-User, die einen G92 haben, zustimmen können.
 
Zuletzt bearbeitet:
beim ramtakt stimm ich dir aufjedenfall zu andiac.
aber beim GPUtakt nicht, meine 8800 GT macht z.b. nur maximal 696 mit bei 700 gibts schon bildfehler :(
aber mit atitool kann man das ja ohne weiteres gut testen :)
wobei der shadertakt bei 700 Mhz GPU takt 1650MHz betragen würde ;) Faktor 2,5 und den muss man normalerweise nicht mal selbst einstellen bei mir wird der immer automatisch dem GPU takt angepasst.

mfg
 
ATI Tool taugt nicht. Nur im Rivatuner sieht man die Taktsprünge und kann die Shader einzeln hochziehen. Die gehen für gewöhnlich deutlich höher als 2.5x Coretakt.

cYa
 
@ y33H@
ist das auf artefakte suchen von atitool nicht so der renner?
Ich nehm das immer um die stabilität zu testen, wenn ich damit übertakten möchte hängt sich der recher immer auf:D von daher nehm ich da auch den rivatuner zum takten.
Aber ich hab eig. gedacht wenn der shadertakt im verhältnis 1:2,5 steht ist es am besten ist ja auch beim referenztakt bei den 8800 Gt usw. so.
Kann ich den noch viel Leistung heraus holen, wenn ich bei meiner karte den shadertakt z.b. um 50 oder mehr Mhz noch anheben könnte ?

mfg
 
Am besten? Nö, das Verhältnis ist schei0egal (siehe Signatur). Ein hoher Shadertakt rockt in shaderlastigen Titeln (UE3, Crysis) freilich. Um die Stabilität zu testen nehme ich Crysis und "Mother Nature" (3DM03).

cYa
 
Zurück
Oben