Leserartikel 10 Jahre 8 Kerne - Dual-CPU vs. Ryzen (Asus DSAN-DX)

Prima Test und vor allen Dingen eine gute Argumentationsgrundlage, wenn hier neue Fragende hier im Forum wieder mal bezweifeln, was sich angeblich in den letzten Jahren bzgl. Chip-Entwicklung nicht getan haben soll. Dein Artikel zeigt sehr gut, was sich in 10 Jahren leistungsmäßig getan hat.
 
PHuV schrieb:
Dein Artikel zeigt sehr gut, was sich in 10 Jahren leistungsmäßig getan hat.
Hier sind elf Jahre im Cinebench R15 Single-Core:

CB-R15-Single.png

Nicht nur bekommt man inzwischen bis zu 16 Kerne statt vier. Jeder einzelne Kern ist 120% schneller geworden. Die 293 Punkte des 12900K sind in etwa das, was mein alter Q9550-Quadcore mit allen vier Kernen zusammen abgeliefert hat.

Und die Entwicklung ist in den letzten Jahren schneller geworden. Es ist gut möglich, dass noch vor Jahresende die 350 Punkte geknackt werden.

Ergänzung: AMD vor Ryzen fehlt, die waren im Diagramm einfach nicht drin. Die FX-CPUs ordnen sich aber quasi allesamt noch unterhalb des 2600K ein.
 
  • Gefällt mir
Reaktionen: PHuV und Stefan1200
Das ist schon interessant mit dem Volari Chip. Ich glaube das war einer der Gründe
für Intel, dann irgendwann zu IPMI überzugehen und das dann nur noch übers
Netzwerk zu administrieren ohne dedizierte Grafikeinheit. Von allen Chips dieser
Welt hätte ich hier den von XGI als letztes vermutet, aber kann bei anderen
Boardpartnern wieder anders gewesen sein.

Das mit Youtube ist mir auch aufgefallen, selbst bei meinem alten 6th Gen Intel auf
der Arbeit, auch bei Videochats etc. Schon bei vermeintlich kleinen Tätigkeiten pum-
pen die alten CPUs wie die Maikäfer. Heutige CPUs und vor allem GPUs haben dafür
spezielle Funktionseinheiten, für die sind das Peanuts. Aber sowas war damals nicht
selbstverständlich in der guten alten Zeit. Danke für den Exkurs in die Vergangenheit :)
 
borizb schrieb:
Das mit Youtube ist mir auch aufgefallen [...] pumpen die alten CPUs wie die Maikäfer.
Das ist allerdings davon abhängig, was für eine Grafikkarte man der alten CPU zur Seite stellt, und welche Codecs man in Youtube nutzt. In einigen Fällen ist es sinnvoll, so etwas wie enhanced-h264ify als Add-On zu installieren, denn viele Grafikkarten können zwar nicht VP9, aber sehr wohl H264 in Hardware dekodieren. Wenn die Dekodierung damit von der CPU auf die GPU wechselt, kann das schnell zig Watt sparen.
 
  • Gefällt mir
Reaktionen: Stefan1200
Nixdorf schrieb:
Das ist allerdings davon abhängig, was für eine Grafikkarte man der alten CPU zur Seite stellt, und welche Codecs man in Youtube nutzt. In einigen Fällen ist es sinnvoll, so etwas wie enhanced-h264ify als Add-On zu installieren, denn viele Grafikkarten können zwar nicht VP9, aber sehr wohl H264 in Hardware dekodieren. Wenn die Dekodierung damit von der CPU auf die GPU wechselt, kann das schnell zig Watt sparen.
Selbst wenn die GPU nicht so alt oder älter wäre wie die CPU, gibts es auch für Codecs, Plugins
und Addons Grenzen für das was sie können, und das unvermeidliche wird damit oft nur hinaus
gezögert. Wenns nur um youtube ginge, kann man das auch mit einer kleinen ARM Büchse
machen, aber das Youtube war eigentlich nur eines von vielen Beispielen dafür, was ehemals
potente Hardware trotz einigen Kernen und Ghz einfach nicht so gut kann wie etwas zeitgemäßes.
Klar kann man sich um vieles herumarbeiten mit einigen Kniffen, aber irgenwann ist mal Schluss.
 
Super Test. Ich denke sowas wäre noch mit Westmere-EP durchaus interessant in 32nm.
Die Teile laufen ja zum Teil immernoch performant auf hohen Auflösungen und OC. Beispielsweise mit dem X5650.
 
Knogle schrieb:
Ich denke sowas wäre noch mit Westmere-EP durchaus interessant in 32nm.
Die Teile laufen ja zum Teil immernoch performant auf hohen Auflösungen und OC. Beispielsweise mit dem X5650.
Ja, die 1366er-Plattform powert noch gut.
Leider sind gute Boards dafür sehr teuer.

Aber ja, wäre mal interessant da wieder ein "10 Jahre"-Test zu machen. Wobei LGA 1567 dahingehend noch mehr kicken dürfte.

Zum Dualsocket-Monster: ich habe soeben eine Grafikkarte bei ebay geschossen, die damals (2008) mal so eben mit 3500 $ UVP angesetzt war, für damalige Verhältnisse ebenfalls ein krankes Stück Hardware. :D Kann mir jemand ein heutzutage einigermaßen gut erhältliches Gehäuse aus der damaligen Ära empfehlen?
 
  • Gefällt mir
Reaktionen: Knogle
Taron schrieb:
ich habe soeben eine Grafikkarte bei ebay geschossen, die damals (2008) mal so eben mit 3500 $ UVP angesetzt war,
Ich war mir ja nicht sicher, bei eBay sind Käufe dieser Art immer etwas risikoreicher. :D Aber jetzt liegt sie hier. Es ist eine...

Nvidia Quadro FX 5800

  • Release Nov. 2008
  • G200-875-B3 GPU (entspricht der GT200-GPU im Vollausbau)
  • NVIO2 Chip für SLI/2D
  • 4096 MB GDDR3 (!)
  • 512-bit Speicherinterface
  • 2x DVI, 1x DP
  • Dual-Slot Kühlsystem (Blower)

IMG_3293.JPG

Quadro FX5800

Erschienen im November 2008, zu einer UVP von stolzen 3499 $, war diese Karte für die damalige Zeit gerade in Sachen Speicherausbau ein beeindruckendes Stück Technik. Besonders stechen hier die üppigen 4 GB Grafikspeicher bie gleichzeitig 512 Bit breitem Speicherinterface hervor, welche mit etwa 102 GB/s für damalige Zeit schnell angebunden sind.
Üblich waren damals Speicherbestückungen von 512 bis 1024 MB, auch im Profi-Segment. 2 GB Grafikspeicher waren damals selten und hauptsächlich bei ATI-Grafikkarten anzutreffen, insbesondere den Dual-GPU-Modellen (HD 4870X2).

Heutzutage schwanken die Preise für solche Karten extrem, von 25 bis 250 € ist alles dabei. In Deutschland werden solche Karten kaum angeboten, die meisten Angebote stammen aus dem Ausland. Ich habe dieses Modell für unter 40 € bekommen können. Ein gewisses Risiko ist bei solchen alten Highend-Grafikkarten immer dabei, insbesondere was schleichende Defekte oder andere Probleme im Alltagsbetrieb betrifft.

Die Karte war in akzeptablem Zustand. Die Schwarze Kunststoffabdeckung mit der Beschriftung "Nvidia Quadro" auf der Oberseite ist mit einer Art Gummi ("Softtouch-Oberfläche") überzogen, welches früher oder später klebrig werden wird. Warum Nvidia dies getan hat, ist für mich wenig nachvollziehbar, da die Haptik bei einer Grafikkarte einfach nicht relevant ist. (Ob dies bei solchen teuren Karten anders aussieht als bei der Consumer-Ware für geringeren Preis, weiß ich nicht.)

Die Zerlegung der Karte ist relativ einfach.
Die Backplate besteht aus Alu-Druckguss. Sämtliche Schrauben (Kreuzschlitz) auf der Rückseite und an der Slotblende lösen und die Backplate abnehmen.
Achtung: Vorsicht walten lassen, denn Nvidia hat am Kartengehäuse kleine Plastikclips verbaut die leicht brechen können.


IMG_3294.JPG

Na lecker. Egal was ihr tut, nehmt bitte weniger davon.

So sah das dann auf der GPU aus. :rolleyes:
Wer auch immer das war, sollte eventuell weniger am PC schrauben oder kleinere Tuben Wärmeleitpaste kaufen. So viel Wärmeleitpaste habe ich auf einer PC-Komponente zuletzt in meiner Zeit in einer PC-Werkstatt im Kundensupport gesehen. Üble Sache.

Nach der Reinigung darf man sogar die GPU betrachten.


IMG_3295.JPG

G200 GPU (Tesla 2.0, entspricht GT200)

Mit einer Die-Größe von 470 mm² in der 55 nm-Variante ist dieser Chip selbst für heutige Verhältnisse relativ groß. (Er wurde anfangs auch in 65 nm bei 576 mm² gefertigt, die Lithographie wurde aber schnell umgestellt.)

Meine GPU wurde interessanterweise in der 38. Woche 2010 hergestellt, was auf einen Verkauf meiner Grafikkarte Anfang bis Mitte 2011 hindeutet. Zur selben Zeit lief bereits die Massenfertigung von Fermi-basierten GPUs, die auf der GTX 500er-Reihe verbaut wurden (genannt hier u.a. der GF110).

Ich vermute, dass die FX 5800 Anfang bis Mitte 2011 parallel zur Quadro 6000 mit GF100-Chip und 6 GB Speicher vertrieben wurde, zu einem entsprechend günstigeren Preis.


quadro-fx5800.gif


Woher das Release-Date in GPU-Z stammt, weiß ich nicht. Laut Wikipedia und üblichen Infos stimmt dieses aber nicht.


IMG_3297.JPG

Solides, aber lautes Kühlerdesign.

Der Kühler ist ein einfaches Blower-Design mit Heatpipes und einer Kupfer-Bodenplatte. MOSFET und VRAM werden mittels Wärmeleitpads ebenfalls gekühlt. Das Kühlsystem ist bereits im Idle deutlich hörbar, und unter Last wird der verbaute Radial-Lüfter zum "Föhn". Selbst bei manueller Lüfterregelung lässt sich die Karte nicht lautlos bekommen, da sich der Lüfter nicht auf weniger als 30 % Geschwindigkeit stellen lässt.
Ím Idle genehmigt sich die Karte irgendetwas zwischen 30 und 50 W - mein Dual-Socket System braucht im Idle 160 W mit der Quadro, bei der Vega 64 waren es nur 130 W. Im offenen Aufbau liegt die Temperatur der GPU im Idle bei 50 °C, trotz aktiviertem Lüfter.

Bald werde ich Benchmarks zeitgenössischer Spiele zu dieser Karte erstellen. Ob ich das ganze in einem eigenen Artikel verpacken werde oder hier mit integriere, weiß ich noch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco, <NeoN> und Backfisch
Taron schrieb:
So sah das dann auf der GPU aus
Urgs

Meine FX 4600 sah aber genauso aus
IMG20220202134941.jpg


PS meine GTX 260 ist auch kein Leisetreter
 
Schöner Artikel.
Kleiner Hinweis: Bei Skyrim ist immer das 60 FPS Limit der Engine per default aktiv.
Um das aufzuheben muss man in die Skyrim.ini gehen.
Würde ich aber nur bei der 2016er SpecialEdition (Dx11) machen, nicht bei der 2011er Fassung (Legendary Edition - Dx9), da sonst wahrscheinlich die Ingame-Physik lustige Dinge macht.
(auch bei der SE muss man immer etwas schauen)

Jedenfalls bedeutet das, dass du (ohne Modifikationen) bei Skyrim (sowohl LE als auch SE) immer das 60 FPS Limit aktiv hast, da die Framerate bei Skyrim an die Ingame-Physik gekoppelt ist.
Dementsprechend spuckt dir der 1700X auch nicht mehr aus, obwohl die Hardware das locker könnte.

Benchmarks in Skyrim ergaben daher auch meist nur Sinn, wenn man entweder sicher unter den 60 FPS landet (wie eben bei älteren Systemen, oder exzessiv gemoddeten Setups), oder halt das Limit aufhebt.

Die 30% GPU Last mit den X5460ern werden daher kommen, dass du extremst im CPU Limit hängen wirst. Denn die Skyrim LE nutzt nur 1 bis max. 2 Kerne.
 
Zuletzt bearbeitet:
Schönes Ding!
Inspiriert mich glatt wieder zum Basteln. Muss mein NAS auf E-350D Basis etwas Leistung verpassen um ein paar VM mit laufen zu lassen.
Zur Auswahl stehen ein FX8xxx auf nem Gigabyte und ein Dual Xeon E5540 bzw E5606 auf Intel S5500BC.
alt und Leistungshungrig sind beide. Der FX etwas weniger 135W TDP zu 2x 95W TDP, aber der Xeon hat ECC 🤔
Mal sehen, was die Performance sagt.
 
Zuletzt bearbeitet:
So, habe gebastelt.
Angetreten ist ein FX8320 auf nem Gigabyte-Board 24GB DDR3-RAM gegen 2 Intel Xeon E5606 auf dem S5500BC 32GB DDR3-RAM ECC .
Betiebssystem Win7 pro auf einer SANDISK-SSD Benchmark Cinebench R15.
Singlecore Bench gewinnt der FX deutlich mit 95 : 66. Also fast 1/3 mehr Rechenleistung. Interessant wird es beim Multicore - wie gesagt 8 Kerne gegen 8 Kerne. Der FX schlägt sich tapfer mit 495, aber das Dual Xeon Setup überholt den FX und trumpft mit 501 überraschend auf.
Jetzt steht das neue NAS:

Dual Xeon E5606 auf Intel S5500BC
32GB DDR3 mit ECC
die beiden Gbit Ethernetanschlüsse als Portchannel
3 WD Red als Raid Z1
Betriebssystem Truenas 13

Da sollten dann auch die 2 VMs für Smarthome und PV-Überschussladen problemlos im Hintergrund laufen können.
 
Pressluftjunkie schrieb:
Der FX schlägt sich tapfer mit 495, aber das Dual Xeon Setup überholt den FX und trumpft mit 501 überraschend auf.
Da ist nicht der Xeon gut, sondern der FX schlecht. Der Vishera ist ja auch kein richtiger Achtkerner, sondern kombiniert 8-Integer mit 4-Floating-Point-Einheiten. Das Ergebnis ist die schlechte Skalierung beim Rendering im Multicore-Betrieb.
 
Pressluftjunkie schrieb:
Jetzt steht das neue NAS:
Coole Maschine (hätte ich sicher Spaß beim experimentieren :D ), würde ich aber heutzutage nie und nimmer mehr im Dauerbetrieb einsetzen. Grund: Stromverbrauch, und damit einhergehend laufende Kosten und Hitzeentwicklung plus Kühlaufwand, wenn es leise sein soll. 2 x 80 W (TDP, im schlimmsten Falle) sind eine Hausnummer. Heutzutage geht sowas mehr oder weniger bereits passiv oder wenigstens erheblich effizenter...
Nixdorf schrieb:
Das Ergebnis ist die schlechte Skalierung beim Rendering im Multicore-Betrieb.
Genau das war damals mit ein Grund, warum ich statt auf den FX 8120 damals auf einen i7-2700K gewechselt habe. Der war selbst @stock meist schneller, sowohl Single- als auch Multi-Core, und mit OC (meiner ging 4,7 GHz) sah die Sache noch mal anders aus.

Bulldozer war damals einfach keine Glanzleistung, trotz allem was heutzutage mit Ryzen in so manchem Gaming-Rechner schlummert.
 
Taron schrieb:
Bulldozer war damals einfach keine Glanzleistung
Keine Glanzleistung, aber auch nicht so schlecht, wie es bei der ersten Iteration noch aussah. Das Problem mit weniger FP-Einheiten blieb, aber daneben gab es auch noch ein zu schmal ausgeführtes Frontend, welches die Integer-Einheiten ebenfalls "verhungern" ließ. Das hat sich mit den späteren Iterationen dann etwas verbessert, aber da war das Kind schon in den Brunnen gefallen. Die Monstrosität namens FX-9590 wurde letztendlich das Denkmal des Scheiterns der Bulldozer-Architektur. Weitere Verbesserungen hat man in den CPUs gar nicht mehr gesehen, denn die flossen nur in günstigere APUs. Zu dem Zeitpunkt musste AMD das Top-Desktop-Segment schlicht aufgeben, bis Zen übernehmen konnte.
 
Moin ihr Beiden,

ich gebe euch eigentlich in allen Punkten Recht. Allerdings immer unter Beachtung des Alters der Systeme
@Nixdorf: Das Problem mit der Skalierung hat mich einfach überrascht. Dadurch, dass es beim Xeon über Prozessorgrenzen hinweg zu skalieren war hatte ich eher dort Leistungsverlust erwartet.
Dass die Systeme aus heutiger Sicht nicht wirklich was leisten, ist mir klar Leistungsaufnahme werde ich auch kurzfristig mal messen, allerdings habe ich ein paar Reserven: 10kW peak auf dem Dach und kommenden Monat wahrscheinlich 12,8kWh Speicher im HA-Raum. Die Teile lagen halt in der Bastelkiste. Die Frage ist, was das System idle aufnimmt. Leistungstechnisch reicht es allemal für ein NAS mit einer VM für ioBroker.

LG
Pressluftjunkie
 
Pressluftjunkie schrieb:
Das Problem mit der Skalierung hat mich einfach überrascht.
Na ja, die Frage ist aber auch, ob Cinebench der passende Benchmark für das spätere Einsatzgebiet des Servers ist. Schwächen insbesondere im Multi-Core-FPU-Betrieb sind jetzt nicht gerade typisch für einen NAS/VM-Server. Ich würde da eher eine breitere Suite für den Vergleich nutzen (evtl. PassMark?), oder sogar explizit einen für Netzwerklasten suchen.
 
Naja, ich denke, mein Schwerpunkt liegt tatsächlich eher im Multicore-Betrieb.
Auch wenn es hauptsächlich ein NAS ist, läuft das Dinge meist im idle-Betrieb Ist halt ein 4-Personen Privathaushalt und tagsüber sind die meisten außer Haus. Abends will niemand mehr mit dem Rechner arbeiten. Liegen halt Fotos und Privatschriftstücke drauf und von mir dienstliche Sachen. Kern ist hier die Virtualisierung für die Hausautomatisierung. Dass es sicher passendere Benchmarks gibt, ist richtig, der Cinebench war halt gerade verfügbar.
Bezüglich der Leistungsaufnahme nocheinmal: Die Komponenten war verfügbar. Insbesondere der ECC-RAM war mir für das NAS wichtig (Hat der FX nicht und deswegen war der auch nur für den Vergleich mit rangezogen worden). Hier hätten entsprechende aktuellere Komponentenhätten sicher einiges gekostet, ich bin allerdings für Vorschläge offen.
Die Leistungsaufnahme des fertigen NAS reiche ich in den nächsten 1-2 Tagen mal nach, dann kann ich mir ausrechnen, ob es sich lohnt zu wechseln. Das Teil ist insgesamt ein Hobbyprojekt. :-)
Anyway, den Passmark lasse ich bei Gelegenheit mal vom USB-Stick laufen.
 
Zuletzt bearbeitet:
Der Cinebench ist untypisch für das Nutzungsszenario, da er einen vergleichsweise hohen Anteil an Floating-Point-Berechnungen enthält. Schon in deinen Messungen hast du ja die ein Drittel höhere Performance im Simgle-Thread gesehen. Der Xeon zieht dann im Multi-Core ausschließlich deswegen vorbei, weil der FX nur 4 Floating-Point-Einheiten hat, die den Rest des Benchmarks warten lassen und so die Skalierung verschlechtern.

Ich habe mir die Prozessoren mal im PassMark rausgesucht:
https://www.cpubenchmark.net/compare/Intel-Xeon-E5606-vs-AMD-FX-8320-Eight-Core/1247vs1782

Hier sind es im SIngle-Core gleich +56,6%, und im Multi-Core bleiben gegen eine Verdopplung des Xeon-Werts immer noch +16,7% übrig. Da würde ich dann eher zum FX greifen. Ich vermute auch, dass das Dual-Socket-System eher mehr Strom verbraucht.
 
Nixdorf schrieb:
Der Cinebench ist untypisch für das Nutzungsszenario, da er einen vergleichsweise hohen Anteil an Floating-Point-Berechnungen enthält. Schon in deinen Messungen hast du ja die ein Drittel höhere Performance im Simgle-Thread gesehen. Der Xeon zieht dann im Multi-Core ausschließlich deswegen vorbei, weil der FX nur 4 Floating-Point-Einheiten hat, die den Rest des Benchmarks warten lassen und so die Skalierung verschlechtern.
Das ist soweit korrekt. Deswegen schaue ich mir interessehalber auch den Passmark an und liefer den in den nächsten tagen nach.

Nixdorf schrieb:
Ich habe mir die Prozessoren mal im PassMark rausgesucht:
https://www.cpubenchmark.net/compare/Intel-Xeon-E5606-vs-AMD-FX-8320-Eight-Core/1247vs1782

Hier sind es im SIngle-Core gleich +56,6%, und im Multi-Core bleiben gegen eine Verdopplung des Xeon-Werts immer noch +16,7% übrig. Da würde ich dann eher zum FX greifen. Ich vermute auch, dass das Dual-Socket-System eher mehr Strom verbraucht.

Ich gehe davon aus, dass sich der Xeon-Wert nicht verdoppeln wird. Es wird bei der Skalierung wahrscheinlich noch zu einigen Verlusten kommen. Ziel des Vergleiches war eigentlich auch nicht die Auswahl einer Basis für das NAS. Hier stand der Sieger bereits fest: Dual Xeon auf S5500BC wegen des ECC-RAMs und der damit verbundenen Datensicherheit. Im Bereich von Fileservern ist es ungefähr das Schlechteste, wenn im RAM unerkannt Bits kippen. Auf der Platte wird das erkannt, im RAM ohne ECC nicht.
Der FX war nur ein passendes Vergleichsobjekt wegen der gleichen Anzahl der Kerne. Fand ich spannend.
Das NAS steht bereits im Keller und so es passend, dass der PassMark von USB gestartet werden kann, so kann das System so bleiben und ich liefer die Werte.
Der FX muss ein wenig warten, der wurde schon wieder eingepackt.
 
  • Gefällt mir
Reaktionen: Nixdorf
Zurück
Oben