[Erfahrungsbericht] Sandy Bridge aufrüsten für unter 300€

Nixdorf schrieb:
deutet darauf hin, dass das kein all zu schlechtes Die ist.
Stimmt auch wieder. Das möchte wohl eher effizient betrieben werden :D
Wobei es mit dem OC auch ging, zog dann ähnlich viel wie der i5.
Ich finde es nur schade dass man kein Offset-OC mit dynamischen Taktraten machen kann.
 
Stuxi schrieb:
Also das ist doch wirklich Unsinn.
Schneller ja, aber doch nicht günstiger?

Ansonsten. Toller Erfahrungsbericht! Danke!

Ja gut einmal war eine Vega64 unter 340 Euro, aber die war nicht gut. Also bei einer 2070 kannst du wegen des Stromverbrauchs auch ein billiges Modell nehmen und bei der Vega64 muss es halt eine dicke Version werden, die bestimmt immer 50€ mehr Geld kostet.
Ergänzung ()

Nixdorf schrieb:
Quatsch. Sobald der Aufpreis zum 2700X der Mehrleistung halbwegs entspricht, wird der auch wieder häufiger empfohlen. Aktuell ist das Teil halt nur was für sehr dicke Budgets oder Spieler, die Single-Core-Zeug zocken und unbedingt die höchste Taktrate brauchen.

Steht doch in der PCGH geschrieben, dass der es sich leisten kann, immer die bessere Hardware bevorzugt. Für 400 Euro im Angebot kann man sich das überlegen. Der 2700x ist selten im echten Angebot. Da würde ich jeden 2600x bevorzugen, wenn der um die 120 Euro kostet.
 
Willi-Fi schrieb:
Ja gut einmal war eine Vega64 unter 340 Euro, aber die war nicht gut. Also bei einer 2070 kannst du wegen des Stromverbrauchs auch ein billiges Modell nehmen und bei der Vega64 muss es halt eine dicke Version werden, die bestimmt immer 50€ mehr Geld kostet.
Alles klar. Und hab dann nen Föhn im Gehäuse?
Und wieder Blödsinn! Die günstigste RTX 2070 gibts aktuell ab 489,-€?
Die Sapphire Nitro+ Vega64 ab 439,-€! Das sind 50€ weniger beim gleichzeitigen bessern Kühlkonzept!
Die Strix64 gibt es sogar ab 389,-€!
 
Willi-Fi schrieb:
Für 400 Euro im Angebot kann man sich das überlegen.
Sehe ich auch so. Der 9700K müsste eigentlich 320-350 Euro kosten, das ist dann leistungs- und auch preistechnisch der Bereich, in den auch der 8700K eigentlich gehört. Der 9900K müsste bei 380-400 Euro sein, was dann so um die 25% über dem 2700X liegt, bei einem Leistungsplus im ähnlichen Rahmen.
 
Kann nur beipflichten. Siehe Signatur. Mein i5 3550 rennt noch - ich werde aber auch nur häppchenweise weiter aufrüsten.

Zuerst kam die GTX960 dran, letztes Jahr dann der RAM, die SSD und WD Black. Lüfter und CPU Kühler (Artic Freezer 34 Duo) sind gerade frisch.

Aber zu ZEN 2 werde ich dann wahrscheinlich auch umrüsten. Das Gehäuse ist noch lange nicht tot. ;)
 
Ich hab mal ein paar OC-Benchmarks hinzugefügt.

Teste aktuell 4,0GHz @ 1,3425V, läuft bisher ohne Abstürze. Die 400MHz mehr @ Allcore bringen schon noch was.
Mit dem Ryzen Master habe ich jedoch abstürze wenn ich das einstelle. Die durch HWinfo angezeigt Spannung liegt aber auch geringer als das im Ryzen Master gesetzte.

Ich werde noch mal gucken ob ich mit dem Ryzen Master weiter komme, aber wenn ich schon mal die 4GHz @ 1,3425V stabil habe ist das denke ich ok. Wenn ich die Spannung reduziere oder den Takt senke wird es instabil. Mit 4,1GHz @ 1,35V schmiert es ab sobald ich Prime95 starte.
 
Hast du ein Strommessegrät und kannst Idle-Messwerte im Vergleich von Stock und OC liefern? Das ist was, wo immer noch so stark Argumente kommen, dass ja bei OC die Idle-Takte nicht mehr weit genug runter gehen. Ist erwiesenermaßen Quatsch, weil der Verbrauch Im Idle nicht so wie bei Last ist. Aber ich hätte mal gerne eine konkrete Info, wie groß der Unterschied in Watt ist.
 
Zuletzt bearbeitet:
Sehr schöner Bericht.
Danke für den Aufwand
 
@Nixdorf
Mit OC, als Browser-Verbrauch habe ich mal Firefox gesetzt der Octane 2.0 ausführt.
Idle-Verbrauch: 67W
Volllast-Verbrauch (P95 In-place large FFTs)): 182W
Browser-Verbrauch: 85W (Score 31917)

CPU taktet dabei dauerhaft auf 4GHz.

Stock folgt später...
Ergänzung ()

Jetzt Stock (komplett, auch Voltage), Im Idle gehts auf 1,55GHz runter, unter Last gut 3,6GHz All-Core, bei Last auf einzelnen Kernen bis zu 3,9GHz.
Idle-Verbrauch: 62W
Volllast-Verbrauch: 157W
Browser-Verbrauch: 82W (Score 29020)

Mit -100mV Offset UV:
Idle-Verbrauch: 61W
Volllast-Verbrauch: 144W
Browser-Verbrauch: 78W (Score 28479)

Ergebnis:
Undervolting bringt ein bisschen, aber ob die CPU dauerhaft auf 4GHz taktet oder sich runtertakten darf macht für den Verbrauch keinen großen Unterschied, außer natürlich unter Vollast. 5W mehr oder weniger.
Wenn die CPU runtertaktet sind die Spannungen entsprechend niedriger (0,7v mit UV, 0,8v Stock im Leerlauf), aber auch mal höher, Spitzen auf 1,375V und das Stock.

Ich glaube angesichts der Ergebnisse ich lass die CPU einfach auf 4GHz, teste noch die minimale stabile Spannung und dann solls erst mal gut sein. Dann hab ich die Leistung wenn ich sie brauche.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nixdorf
Hab das ganze mal zusammengefasst und zum Bericht hinzugefügt.

Mit Prime95 und Furmark gleichzeitig zieht es jetzt 495W aus der Dose, an GPU-OC sollte ich mit meinem 550W-Netzteil wirklich nicht denken :D
Aber es läuft...
 
Zuletzt bearbeitet:
War selber überrascht, dass es im Prinzip keine Rolle spielt, ob der Prozessor jetzt auf 4GHz oder 1,5GHz taktet. Für Notebooks, ja, aber aufm Desktop...
Unter mittlerer Last ist es mit OC evtl. sogar etwas sparsamer da meine Spannung unter der liegt was die Automatik (ohne UV) anlegt und durch die Mehrleistung Berechnungen schneller abgeschlossen sind.

Unter Volllast langt die CPU dann zu, aber sofern man nicht gerade einen Torture Test ausführt sondern sinnvolle Berechnungen anstellt hat man dafür auch wieder die Mehrleistung.
 
Hi,
musste, da ich mir das BIOS von meinem Board mit Xeon e3 1230 v3 zerschossen habe, nun notgedrugen "aufrüsten".
Hab den R5 2600 auf dem b450 Tomahawk board, mit 16GB g.skill aegis 3000, alles @Stock + XMP profil 2 laufen.
Mugen4 AM4-kit kommt erst noch, darum erstmal mit boxed-Kühler.

Tomb Raider:
Xeon@ 3.8Ghz (BCLK 103) DDR3 1600@ 2061Mhz(war nicht stabil, bin dann bei ~1920 geblieben)
SOTTR_2019_03_19_23_08_23_741.jpg

R5 2600@ Stock, DDR4 3000@ 2933Mhz
766664

Muss erstmal noch weiter testen - bis jetzt bin ich erstmal etwas entäuscht was AMD da 2018 rausgebracht hat, verglichen mit meinem 2013 xeon...

Edit: ok, bei ghost recon wildlands bringt das 6c/12t doch mächtig was, da musste ich vorher sichtweite u. objektdetails runter stellen.
Crysis 3 hat auch ordentlich zugelegt (die szene wo der Turm einen erfasst, bin ich sonst unter 60fps gedroppt).
 
Zuletzt bearbeitet:
Zurück
Oben