News HPE The Machine: Künftig dreht sich alles um den Speicher, nicht die CPU

Am besten alles bei Status Quo lassen.

Fortschritt ist was für Träumer.


Immer das selbe hier, nur noch Nörgler und Depris unterwegs.
 
  • Gefällt mir
Reaktionen: JohnVescoya
Blutschlumpf schrieb:
Klingt nach Bullshit.
Die eleminieren nicht den (wohl eh vernachlässigbaren) CPU-Overhead beim Kopieren vom langsamen Medium auf das schnellere...

Der CPU-Overhead dabei ist auch gar nicht der Punkt (und tatsächlich völlig egal), sondern der Datendurchsatz zwischen Speicher und CPU, der immer mehr zum Problem wird, weil CPUs proportional zu diesem schneller werden. Daten Rumschaufeln zwischen Speicher und CPU muss man auch bei HPs Ansatz, aber eben nur einmal (statt vom Festspeicher über den Ram in die Caches und anschließend genau das gleiche in umgekehrter Reihenfolge). Zum Weiterlesen: das "Von Neumann Bottleneck".
 
Zuletzt bearbeitet:
Im grunde wie eine Automatik Uhr mit nur einem Zahnrad, somit würde ein Tag zu ner Sekunde werden 🤔
 
Also ich verstehe auch weder was das Ganze soll noch was daran besonders toll wäre. Klar kann man die Speicherhierarchien abschaffen, mit DRAM geht das heute schon und mit Storage Class Speichern wie dem 3D XPoint wird es noch einfacher und billiger. Aber Speicherhierarchien wurden ja nicht geschaffen um die Leute zu ärgern, die haben ja eine Sinn. Die schnellsten Speicher wie SRAM und DRAM sind teuer und die heutige HW erlaubt eben nicht so viel davon zu verwenden. Ein DDR4 LRDIMM oder RDIMM haben maximal 64GB pro Riegel, ein großer Xeon kann bei Quadchannel maximal 3 pro Kanal ansprechen, also insgesamt 12, macht 768GB oder 1,5TiB bei Dual-CPU Rechnern.

Nur kostet das über 10€/GB und ist damit sehr teuer, selbst eine wirklich schnelle Enterprise SSD wie die Intel DC P3608 4TB (ab 9177€, 2,30€/GB) bietet mehr Kapazität für deutlich weniger €/GB. 15krpm Enterprise SAS HDDs gehen pro GB ab 0,50€ los und 3.5" HDD bei 0,025€/GB, selbst die größten mit 10TB ab 0,04€/GB, was um den Faktor 250 günstiger als die größten RAM Module ist! Klar sind die um mehr als den Faktor 250 schneller, aber solange die SW meist nur einen Teil der Daten von der HDD wirklich braucht und womöglich einen noch größeren Teil in der schnellen SSD zwischenspeichert, dürften die gewohnten Speicherhierarchien immer noch der wirtschaftlich sinnvollste Weg sein.

HP baut also eine Kiste mit letztlich extrem viel RAM und dies sollte auch noch persistent sein und damit die Datenspeicher gleich mit ersetzen. Die Big-Data Jungs haben da sicher Interesse dran, können sich das hoffentlich auch leisten, aber für den Rest der IT Welt sehe ich weniger Nutzen in der Sache. Im RAM wird nichts berechnet und es gibt halt nicht so viele Anwendungen die ständig auf alle Daten zugreifen müssen, wenn aber ein Algorithmus eine Weile auf nur einen Teil des Datenbestandes arbeitet, dann lohnen sich die Speicherhierarchien schon wieder, weil eben die Masse der Daten auf den zwar langsamen aber billigen Datenträger liegen kann und die Zeit zum Laden dieser Daten in den eigentlichen Hauptspeicher umso irrelevanter wird, je länger die CPU danach damit beschäftigt ist.

Konsequent zu ende gedacht müsste "The Maschine" also eine CPU mit einem gigantischen L1 Cache sein in den alle Daten passen und wo sie auch bei Spannungsabfall nicht verloren gehen. Nur gibt es so schnelle persistente Speicher nicht, SRAM ist der schnellste Speicher überhaupt, danach kommt DRAM und auch die kommenden Storage Class Speicher werden nicht einmal die Performance von DRAM erreichen, von der Haltbarkeit mal abgesehen. Soll dann der ganze Speicher aus Storage-Class bestehen, wären "RAM Zugriffe" der CPU wieder langsamer als bei DRAM und sie wäre auf ihre Caches angewiesen um nicht laufend sehr viele Wartezyklen einlegen zu müssen und dann haben wir doch wieder Speicherhierarchien!
 
Bei hpe müssen wirklich nur Idioten sitzen. Da buttern die Millionen an Budget und Jahre an Entwicklungskosten in eine Maschine, die absolut keinen Mehrwert bringt :freak:
Sie hätten vorher nur auf CB nachfragen müssen.. :rolleyes:
 
Die Idee das man nur noch eine Speicherhirachie hat ist uralt. Die jetzige Architektur ist nur kostengetrieben.
 
crvn075 schrieb:
Der CPU-Overhead dabei ist auch gar nicht der Punkt (und tatsächlich völlig egal), sondern der Datendurchsatz zwischen Speicher und CPU, der immer mehr zum Problem wird, weil CPUs proportional zu diesem schneller werden.

Ja, aber genau diesen Bottleneck der CPU schaffen sie ja nicht ab, können sie gar nicht abschafffen. Sie schaffen nur den Massenspeicher ab indem sie ReRAM oder MRAM nutzen (wollen). Die CPU Caches bleiben, aber es gibt keine SSDs mehr.
COU/Speicher Bottleneck schafffen sie nicht ab weil das schlicht technisch und physikalisch nicht möglich ist, es gibt keine Giga- bis Terabyte großen Speicher der so schnell wie Cache um den Hauptspeicher zu ersetzen, also schnell genug für die Prozessorkerne ist. Effektiv ist dsa ein "von HDD zu SSD und jetzt zu MRAM" Weg. Man könnte aber genausogut einfach MRAM statt Flash nutzen, ohne alle Software die jemals geschrieben wurde zu ersetzen. Denn der HP Ansatz bedingt das Neuschreiben ALLER Programme. Dsa wird schlicht nicht passieren. Deswegen nutzen wir ja alle noch x86, deswegen gibts noch COBOL und FORTRAN Programmieren. Im HPC kann man so was machen, "Business" wo HPE zuhause ist, ist es ne Totgeburt.
 
Zuletzt bearbeitet:
Hades85 schrieb:
Am besten alles bei Status Quo lassen.

Ich glaube das sagt keiner im Thread.

Hades85 schrieb:
Fortschritt ist was für Träumer.

Klar, aber es muss auch realistisch sein. Nicht nur um die Lösung zu erschaffen sondern das es auch bezahlbar ist.

Hades85 schrieb:
Immer das selbe hier, nur noch Nörgler und Depris unterwegs.

Ne, realisten. Wie der Großteil im Thread schon schreibt ist das aktuell nicht wirklich Sinnvoll. Es wird so oder so immer ein Flaschenhals geben sei es bei der Hardware oder bei der Software. Dazu kommt eine neue Computer-Architektur ist erst mal für die Unternehmen mit einem verbunden extrem hohe Kosten. Wenn das Konzept und vor allem echte Prototypen also nicht min. 10-20 mal schneller sind als aktuelle High End Server wird das nichts werden und daran glaube ich einfach noch nicht dran. Selbst aktuelle High End Server kosten zwar viel, aber ich denke nicht so viel wie "The Machine".
 
Wollen die den gesamtspeicher auch auf niveau eines CPU Caches heben oder darf der CPU diesen noch behalten? Falls sie den auch ersetzen wollen => Fall für die Tonne!
 
Ich bin immer wieder erstaunt wie viel schlaue inscheniöre sich so in diversen Foren rumtreiben. Endlich lern ich was alles Sinnlos ist, was man nicht brauch und eigentlich gar nicht notwendig ist. Und hinterher wussten es eh alle besser.

Bin mal gespannt was sich da so noch tut in den nächsten 40 Jahren. Ob wir mal von der klassischen Architektur wegkommen, jetzt unabhängig von dem Projekt hier
 
Bei den kleinsten und schnellsten Speichereinheiten ist es doch besonders wichtig, dass sie ganz nah am Prozessor liegen, weswegen sie nicht so groß sein können. Deswegen gibt es ja die ganze Cache-Hierarchie. Wie kann man dieses physikalische Problem lösen?
 
HominiLupus schrieb:
Ja, aber genau diesen Bottleneck der CPU schaffen sie ja nicht ab, können sie gar nicht abschafffen. Sie schaffen nur den Massenspeicher ab indem sie ReRAM oder MRAM nutzen (wollen).

Hab ich in dem zitierten Beitrag ja gar nicht gesagt, sondern nur, dass er reduziert wird.

HominiLupus schrieb:
Effektiv ist dsa ein "von HDD zu SSD und jetzt zu MRAM" Weg. Man könnte aber genausogut einfach MRAM statt Flash nutzen, ohne alle Software die jemals geschrieben wurde zu ersetzen.

Willst du den RAM durch MRAM ersetzen (und den Festspeicher dahinter wegrationalisieren) oder den Festspeicher selbst durch MRAM ersetzen (und den flüchtigen RAM beibehalten)? In erstem Fall muss man Software genau so anpassen, im zweiten Fall ist nichts gewonnen.

HominiLupus schrieb:
Im HPC kann man so was machen, "Business" wo HPE zuhause ist, ist es ne Totgeburt.

Big Data wird (wenn es das nicht schon ist) das wichtigste Feld für HPE, und gerade in diesem Feld wäre die Lösung Gold wert. Bei den meisten datengetriebenen Anwendungen in diesem Umfeld würden CPUs gelangweilt herumdümpeln, hätte man sich keine Workarounds ausgedacht. Beispiel: selbst bei relativ kleinen Datenmengen kommen stets Cluster mit vielen kleineren Nodes statt einigen wenigen dicken Maschinen zum Einsatz, und zwar in erster Linie deswegen, weil die Speicherbandbreite bei beispielsweise 20 Maschinen eben 10 mal so hoch ist wie bei 2 Maschinen.
 
Zuletzt bearbeitet:
Lt. meine Infos wollten sie doch den Memristor als Speichertechnology einsetzen.
Zumindest wurde das auf den letzten beiden PSLAs beworben.
 
Der Traumzustand wäre nicht nur abschaffen der Latenzen zwischen Massenspeicher und RAM, sondern es auch direkt mit den CPU Caches zu verbinden. Dafür fehlt es aktuell aber noch maßgeblich an Geschwindigkeit. Ist das Ziel erreicht sollte man nicht nur beschränkt auf die 'Speicherwelt' schauen, sondern die Ersparnis des Overhead an Rechenoperationen die nötig sind die Daten von einem in den anderen Speicher zu schieben. Ich kenne keine genaue Zahl, kann mir aber vorstellen das unter gewissen Anwendungen das einen erschreckend großen Anteil ausmacht.
 
Axxid schrieb:
Bei hpe müssen wirklich nur Idioten sitzen. Da buttern die Millionen an Budget und Jahre an Entwicklungskosten in eine Maschine, die absolut keinen Mehrwert bringt :freak:
Es gibt doch genug Beispiele für teure Fehlentwicklungen von Unternehmen, es wäre also nicht die erste in der Geschichte, da eben nicht jede Entwicklung am Ende hält was man sich von ihr verspricht. Außerdem gibt es genug konkurrierende Ansätze, z.B. von Intel mit dem 3D XPoint welches in DDR4 Riegeln als RAM genutzt dann auch noch einmal deutlich größere Arbeitsspeicher erlaubt und dazu kommen auch x86 Befehlserweiterungen um dem Programmierer zu erlauben Daten explizit in diesen nicht flüchtigen RAM Bereich zu schreiben und damit alle tieferen Stufen der Speicherhierarchie zu umgehen.

Lies Dir mal 3D XPoint: A Guide To The Future Of Storage-Class Memory auf tomshardware durch! Storage-Class Memory ist neu und führt zu neuen Entwicklungen, aber neue Entwicklungen haben sich immer an besten in der Form durchgesetzt, die am wenigsten Änderungen gegenüber bestehenden Technologien erfordert hat. Für bestimmte Kunden mit ganz spezillen Anforderungen mögen radikalere Anpassungen vertretbar sein, wenn sie damit ihr Ziel erreichen, aber für die Masse der Kunden ist es das nicht, bei denen geschieht die Nutzung schrittweise und neue Technologien müssen da eine Weile neben den bestehenden existieren, was bei einem Rechner der ganz eigene SW erfordert, nun einmal sehr schwer bis unmöglich ist.

Das es generell keinen Nutzen gibt wenn man mehr schnellen Speicher hat, bestreitet ja auch keiner, wenn die Datenvolumen groß genug werden, dann profitiert man davon sehr massiv. Man schaue sich Intel Optane SSD Rendering Demo an, wo eine 7s Sequenz mit 1,1 Milliarden Wasserpartikeln auf einem Rechner mit "the world's fastest PCIe SSD" in 35 Stunden gerendet wurde und in 9 Stunden mit 3D XPoint. Dabei war das nur eine Optane SSD, wie der Vergleich der Ladezeiten bei einer auf 4 framer gekürzten Version der Houdini Render Demo auf der IDF mit einer Intel 750 SSD zeigt:


Die Daten haben also ganz offensichtlich nicht ins RAM gepasst und damit gab es massive Zugriffe auf die SSDs. Mehr RAM und sei es in Form von 3D XPoint hätte die Zeit noch weiter verkürzt, es waren ja immer noch 20% der CPU Zeit für das Warten auf die Daten verloren gegangen, weit weniger als die 70% mit der NAND basierten Intel 750 SSD. Genau daran diese 20% weiter zu reduzieren arbeitet Intel ja auch und nicht nur Intel und HP, sondern dies ist generell ein großes Thema in der Computerbranche. Nur sind die nötigen Storage-Class Memory noch gar nicht wirklich verfügbar, sondern allenfalls wie das 3D XPoint von IMFT als Prototypen vorhanden.
 
Zuletzt bearbeitet:
Ach herrjeh, die meisten Beiträge hier sind dermaßen zum Fremdschämen. Selbsternannte Quanten-Super-Duper-Sonstwas-Wissenschaftler, die im Grunde genommen von überhaupt rein gar nichts auch nur ansatzweise eine Ahnung haben, erklären gerade mal jahrelange Forschung zu immensen Kosten (macht ja nichts, die haben die Kohle, da kann man ja mal einiges davon rauswerfen, ganz ohne Sinn und Verstand, selbst wenn man merkt, es bringt eigentlich gar nichts), zu totalem Blödsinn und glauben sogar zu wissen, warum! Dabei haben die Meisten nicht mal kapiert, worum es überhaupt geht!

Echt mal, alle, wirklich alle, die hier irgendwie blöd rummeckern, tun mir so dermaßen leid! Ich fühle wirklich mit euch. Muss schwer sein, so ein Leben als Besserwisser, obwohl man sonst nichts auf die Reihe bekommt! Aber ist ja bald Weihnachten, da wird sich doch hoffentlich mal jemand mit Euch beschäftigen!

Bis dahin aber schnell wieder zurück in die Höhle, draußen ist es nämlich kalt!
 
Zuletzt bearbeitet:
Painkiller69, was willst Du damit sagen, außer das Du offenbar jeglichen Versprechungen der Industrie blind vertraust? Es muss ja traurig sein, wenn man so unkritisch durchs Leben wandelt.
 
MoinMoin,

Holt schrieb:
Painkiller69, was willst Du damit sagen, außer das Du offenbar jeglichen Versprechungen der Industrie blind vertraust? Es muss ja traurig sein, wenn man so unkritisch durchs Leben wandelt.

Naja, aus aktuellem Anlass habe ich mich heute nochmal zum Thema The Machine informiert: Mit "memory driven" ist der Ansatz gemeint, dass der RAM als Pool für alle Computeeinheiten zur Verfügung gestellt und über mehrere Bladeähnliche Einschübe erweitert werden kann. Die Links zwischen den Modulen sind recht flott/schnell genug, so dass ich abhängig von meinem Workload RAM und beliebige CPU/GPU-Kombinationen nehmen kann, um das ganze nach Kosten-/Zeitaspekten erledigen zu lassen. Ein HW-Cluster verschmilzt dann wirklich zu einem Pool, aus dem ich mich beliebig bedienen kann. Die Software läuft im (Docker-)Container und fertig.

Der Prototyp läuft und bis 2018 könnten die ersten Systeme verfügbar sein: Dann wird sich zeigen wie die Wettbewerber oder die neuen Synergy-Server im Vergleich abschneiden. Die Lösung wird nicht für alle interessant sein, aber seinen Platz finden.

Und wenn ich mir die Photonics-Links ansehe, dann komme ich mir mit meinem 10/25/40/100 GbE-Netzwerk etwas langsam vor.

Cu,
Chris
 
Holt schrieb:
Painkiller69, was willst Du damit sagen, außer das Du offenbar jeglichen Versprechungen der Industrie blind vertraust? Es muss ja traurig sein, wenn man so unkritisch durchs Leben wandelt.

Berechtigt das Nutzen eines gemeinsamen Forums das Duzen? Ich denke nicht!

Ich wandle übrigens so dermaßen kritisch durchs Land, dass ich oft genug deswegen Probleme bekomme. Zweifel wird in der heutigen Gesellschaft nicht gerne gesehen, und schon gar nicht gerne, wenn der Zweifel aktiv kommuniziert wird.
 
Aber HP setzt auf ARM Kerne, oder? Dafür gibt es bisher recht wenig Server SW und Intel hat auch Silicon Photonics, welche bei der kommenden Purley direkt in der CPU sitzen soll um die Latenz der Anbindung zu minimieren. Die Latenz bei Zugriffen auf Speicher nicht nicht lokal ist, dürfte hier wie bei HP ein kritischer Punkt sein und nie an den von lokalem RAM heran reichen.

Außerdem braucht The Machine erst die neuen Storage-Class Memory Speicher, DRAM ist nicht geeignet weil die Daten bei Stromausfällen verloren gehen und mit DRAM wird der Rechner einfach zu teuer:
Nur arbeiten eben wie gesagt auch andere Unternehmen daran die neuen Möglichkeiten die Storage-Class Memory bieten wird zu nutzen und allen voran Intel, die sowohl die CPUs als auch mit 3D XPoint eines der neuen Storage-Class Memory Medien entwickeln und fertigen. Obendrein dominieren Intels CPUs den Servermarkt und Intel ist bei der Netzwerktechnologie auch ganz weit vorne dabei, hat also anderes als HP alles was man für die nächste Servergeneration braucht im eigenen Hause.
 
Zurück
Oben