News Im Test vor 15 Jahren: Drei CPUs mit ein bis zwei Kernen für unter 40 Euro

Unter Betrachtung der Lebensdauer war PC Gaming nie günstiger als heute. Für den Einstieg reicht inzwischen eine IGP oder was drei Generationen altes.

---

Interessante Zeit damals. Die letzten großen Technik Sprünge und das entgültige Ende der goldenen Jahre ab den 90ern markiert durch Sandy Bridge.
 
  • Gefällt mir
Reaktionen: DaBo87
Phenom II X4.jpg

Erinnert mich an meinen Phenom II den ich auf 4x4 GHz laufen hatte, mit 1.45v. :)


Nach dem Teil bin ich auf Intel gewechselt und dank des legendären i9 9900K Coffee Lake ☕ , bin ich immer noch auf Intel System unterwegs. Läuft super, untertaktet, undervoltet (edit: Aber im Gegensatz zu vielen Benchmarks die mit 2400er, oder 2600er-RAM gemacht wurden, mit 32 GB 3600er-RAM CL15, was den Flaschenhals, bzw. die Bremse beseitigt).

Nächster Wechsel ist dann wieder zu AMD geplant, Richtung Ryzen X.
Dann hat AMD mich wieder. :D

PS: Mein Mainboard wird bis dahin 10 Jahre alt sein (2027, mit neuem Komplettsystem).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hexxxer76 und lubi7
Svennc schrieb:
Ich werfe mal das Thema "Wertverlust" in den Raum. Nach spätestens 12 Monaten kamen Refreshs oder Nachfolger von CPUs und Grafikkarten raus. Mit dem Ergebnis, dass nach Monaten alles, was man gekauft hatte, nur mehr die Hälfte wert war.

Wenn man ein High-End-System gebaut hat und dabei auf das Neueste und Teuerste gesetzt hat, ja, aber gerade bei den Budget-Builds, ueber die wir hier reden, nicht. Die im Artikel genannten CPUs waren nach 12 Monaten entweder noch immer aehnlich billig, oder ja, moeglicherweise ersetzt worden, was den Wert des Budgetsystems aber nicht nennenswert geschmaelert hat (abgesehen vom grundsaetzlichen Verlust, weil's ein Gebrauchtsystem war, der ist aber heute auch vorhanden).

Ich habe z.B. 2006 eine Radeon X850XT um EUR 150 gekauft, die war vielleicht ein Jahr frueher fuer EUR 500 eingefuehrt worden. Wer die um EUR 500 gekauft hat, hat in der Tat einen grossen Wertverlust erfahren, aber wer sie um EUR 150 gekauft hat, nicht.

Ein paar Jahre spaeter kaufte ich mir eine Radeon HD 5770 um EUR 130. Die verstarb mir nach ein paar Jahren, und ich habe mir eine fast baugleiche Radeon HD 6770 um einen aehnlichen Preis gekauft (es gab bis vielleicht auf die 7750 keine andere passiv gekuehlte Grafikkarte mit freien Treibern, die mehr konnte); in dem Fall waere der Wertverlust der 5770 also praktisch null gewesen, wenn sie ueberlebt haette. Die 6770 hielt dann bis 2024.
 
mae schrieb:
Ich habe z.B. 2006 eine Radeon X850XT um EUR 150 gekauft, die war vielleicht ein Jahr frueher fuer EUR 500 eingefuehrt worden. Wer die um EUR 500 gekauft hat, hat in der Tat einen grossen Wertverlust erfahren, aber wer sie um EUR 150 gekauft hat, nicht.


Das ist ein Trugschluss. Ich hatte mir vor über zwanzig Jahren auch ne GeForce 4 Ti 4200 für 99 Euro gekauft und davon "profitiert". Aber die ist im Jahr davor noch für über 200 Euro gestartet. Auch den 80-Euro-Athlon-XP, den ich dazu als CPU-Upgrade genommen hatte kostete anfangs über das Doppelte. Preisentwicklung der 8600GT. Klar ist das ABSOLUT dann nicht mehr viel Geld. Aber relativ ist es das gleiche. Vor allem: Auch danach gings stetig weiter runter im Wert. Für Gebraucht-Budgetkarten hatte ich immer nur noch Kleingeld bekommen. Ne 3060? Listet selbst nach fast fünf Jahren neu kaum 30% unter ihrer UVP in Shops, Gebrauchtpreise entsprechend. Für ne 1050Ti hatte ich noch dieses Jahr immerhin nen Fuffi bekommen (mehr als 30% vom Kaufpreis von vor acht Jahren!) Und mit der 4090 ging manch einer ja sogar mit einem Übergewinn raus. Und das ohne Covid- oder Crypto-Krisen. :D


vorher.jpg


nachher.jpg





Deshalb ist es gar nicht mal so leicht zu ermitteln, wie teuer was tatsächlich war. Zurück zu meinem günstigen Athlon Upgrade-XP mit GeForce 4 Ti 4200: Beide waren als "Auslaufmodelle" dann gleich für DOom³ nur noch so mittel geeignet. Und damit sind nicht "stabile 60 fps" gemeint. Durchgezockt hatte ich es trotzdem, mind. :D Denn auch das ist ein Faktor am Markt: Die (Spiele-)software. Einst gab der PC noch den Ton an. Nicht Konsolen, die über ihre Lebensdauer "in die Jahre kommen". Sprich: Nicht nur gab es den krassen Werteverlust in Monaten. Die Hardware wurde auch ausgenutzt und kam schneller an ihre Grenzen.

Hardware, die über fünf, sieben, zehn Jahre nutzbar ist? Früher ein undenkbares Phänomen. Am Teuersten war PC-Gaming jedenfalls ganz sicher in den 1990ern bis frühen 2000ern. Denn nie wieder veraltete Hardware schneller. Auch wirkliche Budget-Bildschirme oder Speicher gabs erst später. Ich gab bis heute jedenfalls nie wieder mehr Geld aus, obwohl ich niemals wirkliche High-End-Systeme besaß. Und das hat nicht nur mit veränderten Gewohnheiten zu tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Botcruscher, NJay und WinstonSmith101
mibbio schrieb:
Der Main-/Renderthread läuft aber prinzipbedingt nur auf einem Kern und entsprechend ist auch die Singlethread-Leistung relevant, weil dann die GPU schneller mit Aufgaben (Draw Calls) versorgt wird, um diese möglichst voll auszulasten. Mit geringerer Singlethread-Leistung hängt man bei den FPS entsprechend früher im CPU-Limit - egal wie viele Kerne das Spiel generell nutzt.
Das ist so aber technisch nicht richtig, bei Games ist das Thema ein ganz anderes, nämlich dass man FPS misst und das eine quasi gleiche Abarbeitung der nahezu immer gleichen Rechnung ist.
Bei angenommen 100 FPS rendert die CPU nahezu unverändert das gleiche Bild eben 100x die Sekunde. Der Knackpunkt (anders als bspw. beim 3D Rendering oder Videoencoding oder ähnlichem) - es ist strikt sequentiell und die Reihenfolge ist von Anfang an vorgegeben. Man kann nicht Frame 3 vor oder parallel zu Frame 2 rendern, weil der Prozessor nicht hellsehen kann. Deswegen fügen Techniken wie (M)FG auch Latenz hinzu, weil man die Frames im Vorfeld rendert und anstatt direkt auszugeben, muss man mindestens einzweites Frame in der Hinterhand haben um zwischen diesen eben Bilder hinzu-erfinden. Mit Informationen die zwischen Frame 1 und 2 liegen.

Lange Rede kurzer Sinn, es ist natürlich möglich weiter die Threads zu parallelisieren. NV hat sowas bspw. mal mit dem 337.50 aka Wundertreiber gemacht, der die DrawCall Performance durch den Einsatz von Multithreading ungefähr verdoppelt hat.
Das Problem in der Praxis ist aber, dass Benchmarks Labortests sind, wenn man 720p Bencht und damit den Fokus auf Durchsatz anstatt Rechenspeed setzt, verfälscht man das Ergebnis zugunsten von Hardware, die Durchsatzstark ist.

Z.B. wird ein X3D AMD Ryzen ggü. einem non X3D Modell mit ähnlicher Rechenleistung im Vorteil sein, weil der Cache Latenzen reduziert und den Durchsatz steigert. Steigt hingegen die Anforderung in Sachen Rechenleistung, also echt notwendige Zeit für altive Rechenaufgaben, dann verliert sich der Vorteil über kurz oder lang.
In der Praxis mit 1440p oder UHD und hohen Details im GPU Limit kann man normalerweise die Taktrate sehr sehr stark senken und wird damit sehen, wie Multithreading-Skalierung immer mehr zunimmt. Anstatt dass die norwendigen Aufgaben sequentiel von wenigen Cores abgearbeitet werden und am Ende dann das Limit diese Sequenz ist, verschwimmt dann um so tiefer man geht, immer mehr. Bis dahin, dass kleinst-CPUs sogar richtig stark von SMT profitieren, teils 40% und mehr FPS gibt es da.


Btw. Cache ist King, sag ich seit Jahren schon, was Gaming angeht, sofern man LowRes Bencht. Hier sieht man sehr schön, 4,2GHz Core2 45nm mit mickrigem Cache ggü. 3GHz gleiche Architektur mit 6MB Cache sieht kein Land... Exakt das selbe was wir heute mit den Ryzen X3D auch haben. FPS mit LowRes Benchmarks bringt uns reine Durchsatzmessungen, die aber nur gelten, wenn der Durchsatz auch gefragt ist. Also dort und so, wie quasi Niemand spielt.
 
Svennc schrieb:
Das ist ein Trugschluss. Ich hatte mir vor über zwanzig Jahren auch ne GeForce 4 Ti 4200 für 99 Euro gekauft und davon "profitiert". Aber die ist im Jahr davor noch für über 200 Euro gestartet. Auch den 80-Euro-Athlon-XP, den ich dazu als CPU-Upgrade genommen hatte kostete anfangs über das Doppelte.

Und wo ist jetzt der Trugschluss?

Auch danach gings stetig weiter runter im Wert.

Das ist falsch. Bei der Radeon X850XT habe ich ein Modell gefunden, bei dem's in Deutschland bis auf EUR 110 hinunterging, aber danach hinauf auf EUR 215, bevor sie vom Markt verschwand. Ich glaub zwar nicht, dass letzterer Preis relevant ist, aber jedenfalls gab's kein "stetig weiter runter".

Für Gebraucht-Budgetkarten hatte ich immer nur noch Kleingeld bekommen.

Natuerlich kriegt man fuer eine Grafikkarte, fuer die man Kleingeld gezahlt hat, kein Vermoegen, wenn man sie gebraucht verkauft.

Ne 3060? Listet selbst nach fast fünf Jahren neu kaum 30% unter ihrer UVP in Shops, Gebrauchtpreise entsprechend.

Und UVP ist inwieweit relevant? Wenn ich mir da eine anschaue, fuer die Geizhals tatsaechlich seit 4 Jahren Preise zeigt, ist der billigste Preis 2021 bei EUR 600 (und da gab's noch deutlich hoehere), und schon am 3.8. 2023 konnte man sie um die Haelfte kaufen. Seither hat sich der Preisverfall abgebremst, das war frueher aber auch so.

Für ne 1050Ti hatte ich noch dieses Jahr immerhin nen Fuffi bekommen (mehr als 30% vom Kaufpreis von vor acht Jahren!)

Ja, wenn man sich eine Budget-Karte kauft (und bei den Preisverhaeltnissen vor 8 Jahren waren ~EUR 150 eine Budget-Karte), dann kriegt man auch nach laengerer Zeit etwas dafuer. Ich wuerde mich nicht wundern, wenn ich fuer die Radeon HD 4670 (passiv), fuer die ich vor 16 Jahren EUR ~60 oder so gezahlt habe, noch 30% des Kaufpreises bekommen wuerde. Billige Grafikkarten gibt's halt sonst einfach nicht mehr zu kaufen.

Und mit der 4090 ging manch einer ja sogar mit einem Übergewinn raus.

Und manch einer stand dann ohne Grafikkarte da. Und die, die eine neue Grafikkarte ergattern konnten, haben oft viel auf den Verkaufspreis der 4090 draufgezahlt. Ist es besser, im Hamsterrad alle zwei Jahre EUR 500 oder mehr draufzulegen, als sich alle zwei Jahre eine Grafikkarte fuer EUR 150 zu kaufen wie damals, und sie dann ggf. fuer "Kleingeld" zu verkaufen.

Zurück zu meinem günstigen Athlon Upgrade-XP mit GeForce 4 Ti 4200: Beide waren als "Auslaufmodelle" dann gleich für DOom³ nur noch so mittel geeignet.

Doom3 war halt wie schon Quake einfach schlechter programmiert als andere Spiele aus der Zeit. Wobei zumindest meine Sparkle Gforce 4200 (noch fuer EUR 200, nur die Matrox Millenium habe ich teurer gekauft) ein Speicherkrueppel war (Ruckeln in UT3) und nach einem Jahr laut wurde. Ich habe mir dann eine Radeon 9600 um EUR100 gekauft, die war sehr zufriedenstellend.


Sprich: Nicht nur gab es den krassen Werteverlust in Monaten. Die Hardware wurde auch ausgenutzt und kam schneller an ihre Grenzen.

Naja, mit der Voodoo 3 3000 war ich zufrieden, bis sie verstarb. Dann die Gforce 4200. Dann die Radeon 9600, ebenfalls zufrieden, bis sie verstarb. Die X850XT habe ich eigentlich nur gekauft, weil sie so guenstig zu haben war, nicht weil ich sie gebraucht haette. Ein neuer Monitor (2560x1600) erzwang dann die X1650 Pro (EUR 52,10); da gab's dann ein Spiel, das in bestimmten Situationen heftig ruckelte, und mit der Radeon HD5770 war das dann nicht mehr ganz so schlimm.

Am Teuersten war PC-Gaming jedenfalls ganz sicher in den 1990ern bis frühen 2000ern. Denn nie wieder veraltete Hardware schneller.

Und Hardware war damals auch teurer. Z.B. 1995 ein Pentium 133 um umgerechnet EUR 650 mit 32MB RAM um umgerechnet EUR 870, da bin ich heute deutlich billiger dran; wobei, wenn ich mir einen 9950X3D mit 256GB leisten wuerde, dann kaeme das wohl wieder hin:-). Die 32MB waren damals aber nur 2 Module und nicht 4. Aber in dem Thread geht's nicht im die 1990er, sondern um die Preise 2010. Da war die Veraltung viel langsamer (den Core 2 Duo von 2008 habe ich bis 2015 behalten, und die Radeon HD 5770/6770 von vielleicht 2010 bis 2024, nur mit Austausch wegen Hardwareausfall; wobei fuer AAA-Spieler die Radeon 5770 wohl nicht lange ausgereicht haette, aber so einer bin ich nicht).
 
Hi habe den sempron 140 zum athlon x2 geunlocked und das erste mal gesehen wie vorteilhaft multicoreprozessoren sind
 
Ehrlicherweise kann ich mich nur noch bruchstückhaft an diese Zeit erinnern. Ich meine, dass ich 2008 einen Intel Core 2 Quad Q6600 hatte, den ich mit dem bekannten Trick auf 3 GHz laufen ließ. Danach hatte ich auch AMD-CPUs, weiß aber bei bestem Willen nicht mehr genau, welche. Das wechselte so schnell. 2012 folgte dann ein AMD FX-8150, was im Nachhinein vielleicht keine kluge Entscheidung war. Ich habe ihn so übertaktet, dass mein Mainboard durchbrannte. Nun ja, es war eine bewegte Zeit. ;-) Mit den CPUs habe ich vor allem Videos encodiert. Im Nachhinein war das eine massive Stromverschwendung und viel Arbeit für nichts.
 
  • Gefällt mir
Reaktionen: aid0nex
Single Cores im Jahr 2010 konnten auch einfach nicht gut gehen... Vielleicht wenn man Windows XP und simple Office Anwendungen nutzte, okay. Aber spätestens Windows Vista/7 und quasi alle damaligen Spiele waren schlichtweg für Dual Cores ausgelegt. Da wurden teilweise schlichtweg parallele Berechnungen durchgeführt, sodass ein Single Core schlichtweg nicht mehr dem nachkommen konnte, wie ein Programm designed und geschrieben wurde.
Ergänzung ()

TheChris80 schrieb:
Und ja mein damaliges Board konnte cores freischalten. Das stand sogar auf der Packung.

WTF, waren die danach auch noch Boardpartner von AMD? :D
 
aid0nex schrieb:
WTF, waren die danach auch noch Boardpartner von AMD? :D
Ich habe keine Ahnung. ich weiss nur das es drauf stand :freak: Da stand fett sowas wie "Core Unlocker" auf der packung. Ist aber schon etwas her.
 
  • Gefällt mir
Reaktionen: aid0nex
Eigentlich alle Mainboardhersteller aus der Zeit stellen auch aktuell noch Baords für AMD her, also dürfte das Bewerben der Kernfreischaltung keine Folgen gehabt haben.

Außerdem, hätte AMD das nicht gewollt, hätten sie die nicht benötigten aber funktionierenden Kerne per Laser-Cut physisch deaktiviert statt nur per Firmware. Und großartig geschadet dürfte es AMD auch nicht haben. So haben die Leute immerhin zumindest nen X2 oder X3 Athlon II gekauft und bekamen damit sehr günstig potentiell nen 4-Kerner, statt zu Intel zu gehen.

Habe hier auch noch irgendwo einen Athlon II X3 435 inkl. Board und RAM rumliegen, bei dem sich neben dem 4. Kern sogar der L3-Cache aktivieren ließ, er dann also als Phenom II B95 erkannt wurde. Müsste nur mal irgendwie rausfinden, ob das Board oder die CPU einen weg hat, da es sich nicht mehr booten lässt und seitdem im Schrank rumliegt.
 
  • Gefällt mir
Reaktionen: aid0nex
Den Sempron 140 konnte man übrigens auch unlocken auf Athlon II X2. :smokin:
 
Zurück
Oben