News TACC Frontera: 36-PFLOPS-Supercomputer mit Cascade Lake statt Epyc

Freunde, solche Deals sind in der Industrie mal keine Seltenheit und ich bin mir sicher das diese Entscheidung nichts mit Performance sondern Geld zu tun hatte. Ich glaub nicht das AMD die Hosen bei 7nm herunterlassen muss. Sie werden genug Abnehmer finden aber diese 7nm Technik ist auch nicht billig. Intel hat finanziell einen ganz anderen Spielrahmen, diesen wird AMD nicht haben. Bei solchen Deals sind Rabatte bis 50% keine Seltenheit.
 
TbG@Runkel schrieb:
Ich seh´s schon kommen, die baun das Ding und stellen nach einfügen sämtlicher Intel-Patches ala Spectre und Meltdown kleinlaut fest.... das war wohl nichts....

Glaube nicht, dass das den Betreiber jucken wird. Er läuft hoffentlich in einer kontrollierten Umgebung mit kontrollierter Software. Da sind keine VMs aus denen man ausbüchsen und Nachbar-VMs ausspionieren kann.

Im Gegenteil, wenn das die Rechenleistung/Effizienz erhöht würde man sogar wenn möglich die Sicherheitsfeatures ausbauen/abschalten/umgehen.

Wie Rennwagen halt. Kein Platz für Passagier, eine Qual im Stadtverkehr, gefährlich aber halt schnell. :)

Ansonsten baut man ja solche Computer nicht heute auf morgen und sobald man ihn einschaltet wird er schon veraltet sein. :)
 
w0mbat schrieb:
Was für eine seltsame "Nachricht". AMD wurde hier nie wirklich in Betracht gezogen, das Inrerview ist kompletter BS. Die haben schon eine Intel-Plattform und die passende Software, es gab da keine andere Wahl.

Das CB auf sowas reinfällt lässt einen denken...

manchmal will man einfach nicht 2mal pech haben....https://de.wikipedia.org/wiki/Ranger_(Supercomputer)

"Er konnte wegen Lieferschwierigkeiten des Prozessorherstellers AMD erst am 4. Februar 2008..."

bei amd ist in den letzten jahren halt einiges nicht so rosig gelaufen. da fiel rome wohl wegen dem zeitplan aus und naples wegen den fetten intel rabatten. :)

die geschichte war damals aber auch ein marketing supergau. du bestellst den schnellsten computer der welt und musst zuschauen, wie in jülich jemand ein paar stunden den schnellsten computer hat....

mfg
 
[wege]mini schrieb:
Soweit ich verstanden habe, bestellt das TACC viele verschiedene Arten von Rechnern. Das geht von FPGA über GPU-Computing bis hin zu CPU-Computing. Wofür die alle sind, weiß ich aber nicht genau.

Da wirds wohl nicht nur einen Fehlschlag gegeben haben. Aber du hast Recht, das war keine Glanzstunde für AMDs Marketing. :)
 
I würde lachen wenn Rome um Ecken schneller ist. Allein die Aussage wegen des Tacktes. Ich lach mich schlapp.
 
CCIBS schrieb:
@MichaG
Danke. Ein Supercomputer der Hauptsächlich von X86 CPUs betrieben wird ist schon etwas seltsam Heutzutage.

Dir ist bewusst das GPUs für diverse Berechnungen schlichtweg ungeeignet sind? z.B. Fließkommaberechnungen mit hoher Genauigkeit...
 
Apropos Intel: "Intel’s Exascale Dataflow Engine Drops X86 And Von Neuman"
https://www.nextplatform.com/2018/08/30/intels-exascale-dataflow-engine-drops-x86-and-von-neuman/
With Moore’s Law running out of steam, the chip design wizards at Intel are going off the board to tackle the exascale challenge, and have dreamed up a new architecture that could in one fell swoop kill off the general purpose processor as a concept and the X86 instruction set as the foundation of modern computing.


The new architecture that they have dreamed up is called a Configurable Spatial Accelerator, but the word accelerator is a misnomer because what they have come up with is a way to build either processors or coprocessors that are really dataflow engines, not serial processors or vector coprocessors, that can work directly on the graphs that programs create before they are compiled down to CPUs in a traditional sense. The CSA approach is a bit like having a switch ASIC cross-pollenate with a math coprocessor, perhaps with an optional X86 coprocessor perhaps in the mix if it was needed for legacy support.


 
haze4real schrieb:
Dir ist bewusst das GPUs für diverse Berechnungen schlichtweg ungeeignet sind? z.B. Fließkommaberechnungen mit hoher Genauigkeit...
Sicher. Aber wann kam zum letzten Mal eine News über einen Supercomputer wo nicht drinnen stand mit 10.000 GPUs. Und der soll immerhin 36 PFlops haben, welche zum Großteil von der CPU kommt.
 
MichaG schrieb:
Seltsam, das Interview, das ich gelesen habe, liefert gleich mehrere Hinweise, dass die Zeit sehr wohl eine Rolle gespielt hat. Ist das nicht putzig? :D
"but with the combination of price, schedules, and performance, ...."

Jep, alles gut.
Nur muss man teilweise berücksichtigen, dass mit einem Archtitekturwechsel viele Veränderungen an bestehenden Verfahren zur folge haben kann. Die über lange Phasen optimierten Verfahren müssen teilweise erneut geprüft oder überarbeitet werden, um das gewünschte Leistungsniveau zu erreichen. Das mag in anderen Bereichen, wie bei einem Cloud Provider für Webservices eine etwas niedrigere Priorität haben. Im HPC Bereich ist das teilweise ein sehr sensibles Thema.
Dies wird unter anderem in einer längeren Projektphase geprüft und auch auf diversen Plattformen der Hersteller evaluiert, verifiziert.
("These are architecturally straightforward but will run every single science code with very little fear and can be live soon without code changes. ")
Die Performance mit einer anderen Architektur zu erreichen ist mit Sicherheit möglich, erfordert jedoch "Zeit und Aufwand". Damit werden dann auch wieder "Zeitpläne/schedules" , neben dem schon notwendigen Aufwand für die Migration der Systeme, zu einem Problem. Hier werden oft mehrere hundert Personentage an Arbeitsleistung investiert.
Das ist im Bereich HPC/Cloud/Server typisch. Diverse Systeme mit neuen Architekturen, werden teilweise über Monate getestet. Teilweise besteht ein Remotezugang zu einem Testsystem, teilweise werden Systeme auch lokal zur Verfügung gestellt.
So ergibt sich möglicherweise ein etwas anderes Bild in der Bewertung der Aussagen.
Gruß,
 
Zurück
Oben