News Intel Xeon E5-2600 v4: Speicher-Vollausbau kostet 100.000 US-Dollar

Ich halte den Artikel für realistisch.
Geht immerhin um Serverhardware und IBM verbaut schon seit Jahren weit mehr als 3TB Speicher in ihre PPCs.
Wir haben hier aktuell 4 Entry Level s824 von IBM mit 1TB. 2 Gehen soweit ich weiß rein.
Ich betone es gerne noch einmal ENTRY LEVEL.
 
Kann mir gut vorstellen, dass als Aprilscherz ein 30 000 Euro System getestet wird, mit Minecraft auf 2000 FPS... xD gibt doch irgend ein video auf youtube
 
Würds ja kaufen, wenn wenigsten dabei stehen würde, wie viele Frames ich damit in Quake mehr habe!
 
Kostenlose Lieferung ist dann wahrscheinlich wieder nur auf deutsche Inseln.
 
4.000 $ für die schon lange angekündigten 128 GB Module sind doch schon beinahe ein Schnäppchen. Immerhin eröffnen diese Module ganz neue Möglichkeiten. Im Topsegment der Servertechnik war man mit den Preisschildern schon immer großzügig.

Kingston DDR2 64 GB Kit - 8 x 8 GB, hat mal 5.000 € gekostet, jetzt nur noch 2.400 €: Kingston KTH-XW667/64G

Fujitsu DDR3 128 GB Kit - 4 x 32 GB, hier gibt es noch keinen Schlussverkauf, mit 4.575 € ist man dabei: Fujitsu S26361-F4523-L946
 
Es reicht doch schon aus sich die Preisentwicklung bei Computerhardware über die Jahrzehnte anzuschauen.

Für diese 4000$ Riegel hat man früher nicht mal den größten Riegel bekommen. Speicher war mit die teuerste Komponente und IBM hat sogar seine Festplatten monatlich vermietet. Rechensysteme als Rechenleistung wurden auch gemietet, was auch heute bei sehr unbezahlbaren Rechensystemen gemacht wird, und trotzdem kann sich heute fast jeder mit etwas Bargeld einen eigenen Serverraum leisten und das sogar Schulen mit knappen Budget. Man erinnere sich an einen PC Raum in den Neunzigern mit einigen Rechnern an einer Schule und was der Spaß so kosten konnte. Das Geld musste sich mit Lehrleistung amortisieren, was dem Schulunterricht im IT Fach keine Spielereien erlaubte.
Heute ist noch die Cloud mit allen Service Annehmlichkeiten zur Miete, weil sich keiner eine solche Infrastruktur in den eigenen vier Wänden leisten kann und selbst NAS Systeme waren vor einem Jahrzehnt unerschwinglich für die Masse, was man heute billig kaufen kann.

Mir ist noch glaube ich 4MB EDO-RAM ab 1000DM im Gedächtnis geblieben und so konnte ein 3086DX PC locker seine 5000DM kosten.
 
Habs zwar auch in meiner Signatur, bestätigt jedoch genau Der Nachbar's aussage!
Auch damals war RAM Optional... (hier im Beispiel statt 64K Ram konnte man 256K Ram kaufen)... Was der PC DANN allerdingt gekostet hätte weiss ich nicht!

classics_.jpg
 
Eine Frage: warum ist die Server-Hardware so schweine teuer?
Ist man einfach bereit in dem Bereich mehr auf den Tisch zu legen?
Weil rein technisch lassen sich die knackigen Aufpreise doch alleine nicht begründen? Klar gibts ein 32 GB DDR3 Modul nicht umsonst.... Aber für 4×32 GB fast 5000€ bezahlen? Einfach "so üblich" oder ist Serverhardware technisch in der Herstellung einfach teurer?

Und dann habe ich noch die Frage: kann man auf Serverplatinen normalen 50€ RAM verbauen? Weil von den Pins her müsste es ja dasselbe sein...
 
Mygeeto schrieb:
Eine Frage: warum ist die Server-Hardware so schweine teuer?
Ist man einfach bereit in dem Bereich mehr auf den Tisch zu legen?
Weil rein technisch lassen sich die knackigen Aufpreise doch alleine nicht begründen? Klar gibts ein 32 GB DDR3 Modul nicht umsonst.... Aber für 4×32 GB fast 5000€ bezahlen? Einfach "so üblich" oder ist Serverhardware technisch in der Herstellung einfach teurer?

Die Bereitschaft das zu zahlen ist die eine Sache, Stichwort Abschreibungen. Eine andere Sache ist die Notwendigkeit, weil du mit dem Kram dein Geschäft in Gang hälst und damit Geld verdienst. Die nächste Sache ist Aufpreis für Enterprise Support Level. Und zu guter letzt steckt da Entwicklung drin, die sich der Hersteller bezahlen lassen will.

Mygeeto schrieb:
Und dann habe ich noch die Frage: kann man auf Serverplatinen normalen 50€ RAM verbauen? Weil von den Pins her müsste es ja dasselbe sein...

Grundsätzlich ja. Wobei, wenn man nicht gerade 128 GB Module kauft, dann gibt es auch registered RAM für Server deutlich günstiger. Ein 8 GB RDIMM für Server kostet ~50 Euro, ein 8 GB UDIMM für PCs kostet ~45 Euro. Denn, noch als Ergänzung zu deiner ersten Frage, das Serversegment ist zum Teil auch der Technologieträger für Fortschritte im Consumerbereich.

Aber, wie gesagt, grundsätzlich ja. Die Grundlage für die single und dual Sockel Intel Systeme ist nicht so unterschiedlich was den Speicher angeht im Vergleich mit Consumer Hardware. Du kannst dann halt nur nicht so viel RAM auf einmal verbauen, daher macht man das für gewöhnlich nicht. Technisch unterstützt ist es aber. Wobei mir neulich jemand erzählt hat, dass Dell keine UDIMM supportet in Systemen die es technisch können müssten. Keine Ahnung ob das stimmt, habs nicht geprüft und bin (noch) kein Dell Kunde.
 
Sind uvps
Kein Käufer zahlt die uvps von den Herstellern
 
Mygeeto schrieb:
Eine Frage: warum ist die Server-Hardware so schweine teuer?
Ist man einfach bereit in dem Bereich mehr auf den Tisch zu legen?
Weil rein technisch lassen sich die knackigen Aufpreise doch alleine nicht begründen? Klar gibts ein 32 GB DDR3 Modul nicht umsonst.... Aber für 4×32 GB fast 5000€ bezahlen? Einfach "so üblich" oder ist Serverhardware technisch in der Herstellung einfach teurer?

Und dann habe ich noch die Frage: kann man auf Serverplatinen normalen 50€ RAM verbauen? Weil von den Pins her müsste es ja dasselbe sein...
Zu erst sind die Garantien auf Laufzeit entscheidend. Die Hardware rennt 24/7. Dazu muss man bauartbedingt immer was dazuzählen. Die sind ausgelegt für den Rackbetrieb und generell ist sehr viel Geld bei den Benutzern solcher Hardware vorhanden. Als Hersteller muss man auch immer Rabatte geben und meist bis zu 50%. Damit da was übrigbleibt, einfach ein bisschen höheren Preis.
 
Wieso ist hier von Crucial und Micron die Rede?
Ist doch eine Firma.
 
Warum sollte das ein April-Scherz sein?

Die Überschrift ist aber batürlichauf Bilb-Niveau.

Mal ehrlich, was soll man mit 3 TB RAM auf dem 2-Sockel-System?
Da kommen doch selten mehr als 512 GB bzw 768 GB zum Einsatz.
 
Man darf gespannt sein, ob wir noch 256GB DDR4 Module erleben werden, oder ob 128GB das Ende dieser Generation darstellen.
DDR4 wird uns laut Langezeit Roadmaps noch sehr lange erhalten bleiben - weisen diese doch nicht mal einen Hinweis auf DDR5 oder Nachfolger aus.
Vielleicht wird es auch gar keinen DDR5 mehr geben und man geht in Richtung Stacked-RAM. Ob nun HMC, HBM oder anderes, steht offen.
Wobei man natürlich gestapelte und optimierte DDR RAM Chips entwickeln könnte, die man dann DDR5 nennt.

Jedenfalls wird es interessant zu sehen, ob kommende Shrinks noch mehr möglich machen oder ob 128GB schon das sinnvolle Limit darstellen und diese nur günstiger werden. DDR4 Chips dürften ja vermutlich noch einen ~10nm Node erleben. Zumindest von Samsung vielleicht.
Ist denn sowas wie 16-Gbit DRAM Chips in Arbeit? 8 Gbit ist ja der aktuellste Stand der Technik.
 
die 3 TB RAM sind kein Scherz.

Im Server bereich ist diese Speichergröße möglich.

zum Vergleich:

Dell Poweredge R920 Server - möglicher Ausbau 6 TB RAM
Dell Poweredge R930 Server - möglicher Ausbau 6 TB RAM (kann mit den neuen Modulen noch steigen)

Die nächste Generation wird dann wohl noch mehr Speicher unterstützen.

Die Ausbaustufen anderen Hersteller habe ich nicht im Kopf.

Die Anzahl der Module wird dann über sogenannte "Riser" realisiert.
Sieht dann in etwa so aus im innern:

StorageReview-Dell-PowerEdge-R920-DIMM-Module.jpg

Aus Erfahrung kann ich sagen, dass sich diese Systeme aber schwierig troubleshooten lassen, sollte man mal ein Problem auf einem RAM Riegel haben.



supastar schrieb:
Warum sollte das ein April-Scherz sein?

Die Überschrift ist aber batürlichauf Bilb-Niveau.

Mal ehrlich, was soll man mit 3 TB RAM auf dem 2-Sockel-System?
Da kommen doch selten mehr als 512 GB bzw 768 GB zum Einsatz.

Wird in großen Rechenzentren für Virtualisierung oder im Clusterbereich verwendet.
Das ganze ist dann kein 2 Sockel System mehr. Hier reden wir schon von 4 Sockel Systemen.
Ergänzung ()

-Ps-Y-cO- schrieb:
Jup
Quadchannel 4x 128GB sind schon 512
Wer schonmal so nen Serverboard gesehen hat mit 24 DIMM Slots kommt von selbst drauf dass 3TB nun möglich sind

CB würde nicht so nen riesen Tam Tam als Aprilscherz drum machen!
1. Interessiert dieses Thema nur die Wenigsten
2. gibts zuwenig diskussionsgrundlage in diesem Thema weil "niemand" ne Ahnung davon hat
3. Viel zu Aufwendiger Artikel mit "Original" Folien etc. ...

Meine Vermutung... Aprilscherz = AMD Polaris11 ab Mitte April vorbestellbar!
oder irgendwas AMD Vergleichbares... Aufjedenfall wird AMD für den April-Scherz-Zug gerade stehen müssen ^^

Frag mich was und ich versuche es dir so gut wie möglich zu beantworten :D
Ich darf die Dinger supporten.

Kurz noch mal die Specs vom R930 rausgesucht: Memory (96 DIMM slots): 8GB/16GB/32GB/DDR4, RDIMM, LR-DIMM up 1866MT/s - hier sind noch nicht die 64GB Module gelistet.

Hier zu finden : https://si.cdn.dell.com/sites/doccontent/shared-content/data-sheets/en/Documents/PowerEdge_R930_spec_sheet-FINAL.pdf

Release war vor ca. 1,5 Jahren
 
Zuletzt bearbeitet:
Ich glaube supastar wollte darauf hinaus, dass für viele generische Workloads mittlerweile ein Missverhältnis existiert zwischen der Anzahl der Cores und der Menge an RAM. Und falls doch nicht, dann bringt ich das jetzt mal auf :)

Vor ein paar Jahren war das noch genau andersrum, da waren unsere ESX Hosts regelmäßig begrenzt durch zu wenig RAM. Das war auch allgemein der Konsens in der Industrie und die Hersteller haben das zum Anlass genommen etwas daran zu tun. Jetzt, ein paar Jahre später, hat sich das Blatt entsprechend gewendet. 3 TB auf 2x22C ist fast schon unnötig viel. Das sind fast 70 GB pro Core. Unsere nächste Generation ESX Hosts wird vermutlich nicht mal die bisher möglichen 1,5 TB haben.
Quad Sockel Systeme (HP DL580, Dell PE 930, etc.) sind dafür ja auch nicht die Lösung, weil die erstens nicht so schön mit ihrer Anzahl skalieren wie kleinere Server und zweitens ja auch dann wieder mehr RAM aufnehmen könnten, 4/6/8/9/12 TB.

Grundsätzlich zu glauben, dass so eine Entwicklung gut für Virtualisierung ist, ist daher ein Trugschluss. Natürlich gibt es Workloads, die davon profitieren. Genau so gibt es ohne Virtualisierung Workloads, die von 3 TB RAM profitieren könnten. Aber so grundsätzlich...? Eher nicht! Gegen die Probleme von zu wenig RAM für Virtualisierung haben wir recht erfolgreich gegengesteuert.
 
heavy-user schrieb:
3 TByte Arbeitsspeicher - tippe auch auf den 1.April :)
Na dann warte mal auf die EX, die fassen doppelt so viele DIMMs. ;)
1,5 TB pro CPU kannst du jetzt schon mit 64 GB LRDIMMs mit dem Haswell-EX erreichen.
 
Zuletzt bearbeitet:
Funny Facts, Fully Buffered = FBRAM gibt es schon seit zehn Jahren in fast so hohen Kapazitäten. Wir haben im Jahr 2008 mehrere Rechner mit 16GB aus 8x2GB (rund 600 Euro) zusammengebaut der dann 2009 auf 8x8=64GB (rund 3000 Euro) aufgerüstet wurde. Einer der Rechner steht inzwischen als Sammlerstück bei mir unterm Tisch, leider wollte der Vorbesitzer die 64GB nicht rausrücken :-) die hat er verwendet um einen ähnlichen Rechner auf insgesamt 24x8GB=192GB aufzurüsten ;-) Diese alten 2GB Riegel werden übrigens brüllend heiss, selbst ein direkt aufgeschnallter 14cm-Lüfter schafft es kaum sie unter 100 Grad zu halten. Stromverbrauch liegt für acht Stück je nach Last zwischen 80 und 160 Watt.
Ergänzung ()

@Dunkler Rabe,

Wer viel Speicher braucht nimmt doch auch heute einfach FB-RAM. Ja, das ist wirklich extrem unüblich aber gerade in der Oberliga, also vier Sockel und aufwärts - ist das schon noch zu finden. Zu Mörderpreisen versteht sich. Dafür aber auch mal 32 Speicherkanäle mit 192 Sockeln für bis zu 6TB. Seitens HPs gibt es einige sehr grosse Geräte bei denen man pro FB-Kanal eine komplette Platine in EATX-Bauform mit Sockeln bekommen kann. Allerdings ist das Zeug dann ELEND lahm, das entspricht dann in etwa DDR2-266 - richtig, üblich war am Desktop DDR2-800. Ok, bei 32 Kanälen kommt trotzdem was zusammen :-)
 
Bitte? Was erzählst du denn da? Ich glaube du wirfst da einiges durcheinander. Setzt du FBDIMM mit LRDIMM gleich?

FBDIMM war eine fixe Idee von Intel als Alternative zu RDIMM für die ersten Core Xeons damals und für Intels Skulltrail Marketing Stunt. Existierte nur zu DDR2 Zeiten und war so schlimm, dass Intel selbst sofort wieder Abstand davon genommen hat, nachdem auch sonst niemand was mit FBD machen wollte. Zusammen mit dem Sockel 771 im DP und Sockel 604 im MP Bereich sind FBD dann auch wieder gestorben, gabs also nur von ~2006 bis etwa zum Jahreswechsel 2008/2009. Die gab es in Größen bis 4 GB, etwas später kamen dann auch noch 8 GB Module. 16 GB Module waren angekündigt, wurden aber nicht mehr realisiert, nachdem klar war, dass das Thema tot ist. "Fast so hohe Kapazitäten" ist da sehr relativ, die aktuellen DIMM haben 8- bis 16-mal höhere Kapazitäten und moderne Systeme können mehr davon parallel ansprechen. Zwischen den möglichen Kapazitäten mit FBD und aktuellen (L)RDIMM liegen Welten.

Heute gibt es die Technik so also nicht mehr, ist mittlerweile seit gut 8 Jahren überholt. Keine Ahnung wo du da heute noch Anwendungsszenarien siehst. Das Zeug findet man nur noch gebraucht, niemand baut mehr FBD und keine aktuelle Hardware der letzten Jahre supportet das. Die "modernste" und einzige Hardware wo man FBD benutzen kann sind 771 DP Systeme mit Harpertown Xeons 54xx, 45nm Penryn Quadcores von Ende 2007 und 604 MP Systeme mit Dunnington Xeons 74xx, 45 nm Penryn Hexacores von Ende 2008.
Wo du da "fast so hohe Kapazitäten" siehst ist mir auch nicht klar. DP Systeme mit FBD hatten nicht mehr als 64 GB RAM, aktuelle haben 1536 GB RAM und, daher das Thema dieser News, bald 3072 GB. Das ist also 48-mal so viel RAM. In MP Systemen war das Verhältnis ähnlich.

Also, entweder lebst du in der Vergangenheit oder wirfst FBDIMM und heutige LRDIMM in einen Topf, was ein bisschen fahrlässig ist. LRDIMM verfolgen ähnliche Ziele wie das bei FBD der Fall war, verzichten aber auf die Nachteile und sind insgesamt auch näher an RDIMM als an FBDIMM.
 
Zurück
Oben