E6600 und GTX 260

Status
Für weitere Antworten geschlossen.

schuelzken

Vice Admiral
Registriert
Juni 2008
Beiträge
6.314
Hallo an Alle, mein Sohn möchte ne GTX 260 haben, momentan hat er ne 8800GTS 320 MB, lohnt sich das überhaupt? Limitiert die CPU bei der GTX 260? Mainboard ist ein ASUS P5N-E SLI. WIN XP Pro 32 Bit.
 
Zuletzt bearbeitet:
Das kommt ganz auf seine Software an. Ob es sich für ihn lohnt, kann er auch nur selbst entscheiden, nicht wir.
 
Je nach Anwendung, Qualitätseinstellungen und Auflösung bringt das schon einiges.

Ich habe wegen meines neuen TFT von einer 8800GTX auf die GTX260-216 (OC) gewechselt und freue mich über ca 50% mehr Leistung.
 
Er hat einen 19" TFT Samsung 931C, spielt auf1280x1024. Aber das der Performenceschub so groß ist hätte ich nicht gedacht.
 
Naja, ein 19" TFT fordert die GTX260 jetzt nicht ausserordentlich :)
Die ca 50% Mehrleistung gegenüber der 8800GTX sind natürlich relativ! Die GTX260 habe ich noch übertaktet, um die Mehrleistung zu erreichen.

Beim Umstieg von einer 8800GTS auf eine GTX260 kannst Du schon mit ca 40% rechnen. Hier mal eine Übersicht
 
Vielleicht kann er den E6600 (falls er noch nicht übertaktet ist) auf Richtung 3 bis 3,2 GHz übertakten, dann rentiert sich die GTX 260 je nach Anwendung auf jedenfall. Da es sich um die 320 MB-Version handelt wird er schon einen Unterschied merken, wenn z.B. Crysis gezockt wird.
Da die künftigen Spiele immer grafiklastiger werden, ist ne neue Graka à la GTX 260 mit ordentlich VRAM perfekt.
 
CPU is nicht übertaktet, Spiele hat er ohne Ende unteranderem auch Crysis
 
Oh, habe das Sysprofile nicht gecheckt und bin mal von einer G92GTS (512MB) ausgegangen. Bei der alten G80 mit 320MB fällt der Performancezuwachs nochmal deutlich höher aus.
 
Ja gut, dann werd ich ihm sagen das Er sich das DING kaufen soll. Erst mal vielen Dank für die Infos.
 
Eine GTX260² für 1280x1024 und DX9 (XP)? Tut mir leid, ich halte das für Geldverschwendung, selbst Crysis@High (DX9) wird in dieser Auflösung von einer HD4850 locker gepackt, es sei denn er will mit 8xAA Spielen^^.
 
Es wird ja nicht beim 19 Zöller bleiben, eins nach dem anderen. Und XP bleib auch nicht ewig drauf.
 
Ich halte das für korrekt eine GTX 260 zu holen. die grafiken der spiele werden ja auch nich schlechter !;) dann kommt man mit ner 260ger schon 2-3 jahre hin. je nachdem welche spiele er später spielt vielleicht sogar noch mehr !!:D
 
Wenn der Monitor- und OS-Wechsel bald ansteht, wäre es sinnvoll die GTX260² zu holen, ansonsten nicht. Die Karte wird in einem Jahr leistungstechnisch überholt sein und man wird etwas viel schnelleres für deutlich weniger Geld bekommen.
Überhaupt macht es mehr Sinn, jedes Jahr eine Karte für 100€ zu kaufen, anstatt alle zwei Jahre eine für 200€ (oder alle 3 Jahre für 300).
 
Hmm, vor allem Grakapower kauft man sich nicht auf Vorrat, sondern dann wenn sie benötigt wird. Wenn er sich erst in 2-3 monaten einen 22er oder 24er holt, dann sollte er sich auch erst dann eine entsprechend leistungsstarke Graka kaufen. Das spart Geld, unter Umständen sogar ne ganze Menge.
Im Moment für einen 19er eine GTX260 einbauen ist eig. rausgeschmissenes Geld. Seine 8800GTS sollte noch alles gut packen bei 1280 zu 1024.


Gruß
Raubwanze

PS: Der Prozessor reicht noch gut, auch unübertaktet. Er reicht ja mit der alten auch noch, wenn mit der neuen nur in höherer Auflösung und/oder mehr AA gezockt wird, ist das keine Mehrbelastung für die CPU.
 
Zuletzt bearbeitet:
chacha73 schrieb:
Eine GTX260² für 1280x1024 und DX9 (XP)? Tut mir leid, ich halte das für Geldverschwendung, selbst Crysis@High (DX9) wird in dieser Auflösung von einer HD4850 locker gepackt, es sei denn er will mit 8xAA Spielen^^.

Kein CUDA und kein PhysX - die ATI ist da wohl eher Geldverschwendung.
 
Ich weiß zwar nicht, warum so ein Thread ausgegraben wird, aber...
@redlabour: PhysX ist Geldverschwendung. Das unterstützen gerade mal 15 Spiele und die Unterschiede bei denen sind teilweise nichtmal weltbewegend. Und wer, außer jemand der den ganzen Tag mit einem CUDA-optimierten Programm arbeitet, braucht bitte CUDA?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben