Lohnt Umstieg von 8800GTS auf HD5670

chhrille

Lieutenant
Registriert
Aug. 2007
Beiträge
637
Moin,
möchte gerne wissen ob sich der Umstieg von einer 8800GTS 640MB auf eine HD5670 1GB lohnt?
Vielen Dank!
mfg ch
 
In puncto Software und Stromverbrauch ja. Von der Leistung eher nicht. Ohne Infos wird das hier nichts.
 
hi
nein lohnt auf keinen fall, höchstens wegem dem stromverbrauch.
aber ansonsten nicht.
wenn du mehr leistung und neueste technik willst, dann hol dir eine HD5850, hast du ein kleineres budget zur verfügung, dann eine HD5770, aber eine HD5670 lohnt überhaupt net, könnt mir sogar vorstellen, das die HD5670 sogar bissl langsamer ist als die 8800 gts.
gruß
 
Zuletzt bearbeitet:
Die 5670 ist 10% langsamer als ne 8800gt, imho etwas schneller wqie die GTS640 (g80)
 
nicht kaufen, die 5670 ist zwar nicht langsamer, aber auch nur unwesentlich schneller das du es nicht merken wirst

fals du eine "verbesserung" suchst, musst du schon 5770 aufwärts schauen
 
Zuletzt bearbeitet:
Die HD5670 ist ca. 10% langsamer als eine 8800GTX, welche wiederum ca. 40% schneller als eine 8800GTS ist

vom Stromverbrauch, den Features und der Lautstärke her ist die HD5670 aber besser
 
Die HD5670 ist schneller als die alte 8800GTS. Mir fallen nur drei Szenarien ein, wo sich ein Umstieg lohnen würde:

1. Die 8800GTS ist kaputt
2. Die HD5670 gibt's geschenkt
3. Jemand bietet einem die HD5670 im Tausch gegen die 8800GTS an

Ansonsten rausgeworfenes Geld. Der Leistungsunterschied ist einfach zu gering um dafür mehr als 10-20 Euro auszugeben.
 
Hallo zusammen,

@ chhrille

Welches Stepping hat denn deine Geforce 8800 GTS 640? Wenn es das A3 Stepping hat - nimm GPU-Z und laß das mal laufen, dann kriegst du das Stepping angezeigt - rate ich dir bei deiner Karte zu bleiben. Denn eine Geforce 8800 GTX 640 mit einem A3 Stepping ist normalerweise extremst Übertaktbar, solange das Gehäuse auch Passabel belüftet ist.

Das kannst du leicht anhand meines Profils erkennen, mit den aufgeführten Takten läuft die Karte schon 2 1/2 Jahre ohne jede Probleme, dabei läuft sie nicht mal am Limit, sie läuft auch mit 700 / 1100, aber ich lasse meine Hardware grundsätzlich nie völlig am Anschlag laufen.

Grundvoraussetzung ist aber eine vernünftige Belüftung des Gehäuses. Ein vernünftiger 120er Lüfter direkt über der Karte wirkt übrigens Wunder. Meine Karte ist bei 25 Grad Raumtemperatur im IDLE niemals wärmer als 55 Grad geworden, unter Last maximal 82 Grad.

Wenn du noch Fragen hast, stehe ich dir gerne zur Verfügung. Übrigens habe ich meine Karte im IDLE auch Untertaktet, so daß sie im IDLE nicht ganz so viel Strom zieht.

ERGÄNZUNG: In 3DMark 06 erreicht meine Geforce 8800 GTS 640 mit dem Takt wie im Profil aufgeführt über 13600 Punkte. Betrachte diesen Benchmark aber bitte nur als Leistungsmeßgrad "Pi mal Daumen". Wirklich Aussagekräftig sind nur Spiele, Crysis habe ich bis Level 7 sogar bei 1600er Auflösung mit 2 x AA Spielen können, aber nur bis Level 7, danach war es vorbei damit, konnte dann nur noch mit Schaltern auf "High" flüssig weiter Spielen, allerdings alle Schalter auf "High".

Ich habe bisher noch kein Spiel gehabt, welches ich nicht Flüssig Spielen konnte, wohlgemerkt mit allen Schaltern am Anschlag, jedoch ohne extreme Filtereinstellungen wie AA. Deshalb werde ich wohl dieses Jahr in jedem Fall noch bei der Karte bleiben.

So long....
 
Zuletzt bearbeitet:
(8800 GT und 9800 GT sind etwa gleichschnell:
Kein Wunder ist ja auch das Gleiche nur in 55nm.

@TE
Wenn möglich würde ich eine HD5750 nehmen.
 
HD5770 ist das richtige !

für 120 € super günstig !!!

und sollte dann ca. 2-2,5 fach so schnell sein, wenn nicht sogar besser

dazu weniger stromverbrauch (sogar deutlich!) und leiser sowie DX 11
 
Die 1GB gibt es aber erst ab 130Euro.
 
wenn ich mich nicht verrechnet/vertan habe, dann liegt eine 8800GTS bei ca. 50W im Idle und 140W unter Load.
die HD5670 liegt bei 14W im Idle und 62W unter Load.
Angenommen der Strompreis liegt bei 0,2€ pro kWh und der PC läuft pro Tag 4 Stunden im Idle und 1 Stunde unter Last.
Dann hat man also 360d/y*(4h/d*0,045kW/h+ 1h/d*0,07kW/h)*0,2€/kWh=18€

Sofern du deinen Strom bezahlen musst macht es sich also durchaus bemerkbar.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Lost_Byte

Ne, im IDLE zieht die 8800 GTS 640 sogar ca. 60 Watt. Aber es gibt noch die Möglichkeit des Untertakten, meine jedenfalls zieht im IDLE nur noch ca. 40 Watt.

Dafür unter Last natürlich entsprechend mehr als 150 Watt mit den Takten aus meinem Profil.

So long....
 
@Luxmanl525: Ich bin auch erst auf ca. 60W gekommen, aber da das dann nach der Steckdose gemessen war und somit die Ineffizienz des Netzteils da mit rein spielte und ich Werte von der HD5670 hatte, die direkt an der Karte gemessen wurden, habe ich jeweils 10W bei den Werten für die 8800GTS abgezogen.

Wenn man die Effizienz der Netzteile mit berücksichtigt liegt man wahrscheinlich bei grob 20-22€ Differenz
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Lost_Byte

Von der seite betrachtet, hast du dann wohl Recht, aber meines Wissens nach wurde die Karte damals mit 60 Watt im IDLE verifiziert. Na ja, je weniger desto Besser.

Aber wenn der Threadersteller eine Karte mit dem A3 Stepping hat, würde ich jedenfalls momentan noch nicht zu einer anderen Karte Greifen. Mit dem Stepping ist die Karte richtig Gut zu Übertakten und bleibt dabei sogar noch Leise, meine ist praktisch nicht zu Hören.

Wäre schön, wenn der Threadersteller sich mal äußern würde, wozu er tendiert bzw. auch, welches Stepping seine Karte hat.

So long....
 
Lost_Byte:

Ich war in Mathe irgendwie nie ein Genie, Elektriker bin ich auch keiner, aber mir sind deine 55 Euro doch erschreckend hoch vorgekommen.

Ich bin bei der HD5670 von 15W im Idle und 60W Load, bei der Geforce von 60W im Idle und 140W Load ausgegangen. Maximal-Load ist für mich nicht Load. Niemand spielt Furmark.

Dabei komme ich nach deinen Vorgaben (1h Last/4h Idle pro Tag) bei 20 Cent pro kW/h auf einen Jahresverbrauch bei der Radeon von insgesamt € 8,76 und bei der Geforce auf € 27,74. Jährliche Ersparnis: € 18,98. Investitions-Amortisation erreicht nach über 4 Jahren (ausgehend von nicht ganz 80 Euro Anschaffungspreis)

Entweder schätze ich die Effizienz der Netzteile katastrophal falsch ein, oder ich hab mich irgendwo verrechnet. Kannst du mir mal kurz aufzeigen wie du das ausrechnest?
 
. Maximal-Load ist für mich nicht Load.

Dann darfst du bei ner HD5670 auch keine 60Watt ansetzen.
Wenn du mit Load den verbrauch unter Games meinst, dann kannste 40 bis 50Watt ansetzen.
 
Zurück
Oben