News TACC Frontera: 36-PFLOPS-Supercomputer mit Cascade Lake statt Epyc

ThePowerOfDream

Lt. Junior Grade
Dabei seit
Apr. 2017
Beiträge
281
Ich kann mir natürlich vorstellen, daß Intel ihnen CCL vorgestellt hat, aber woher wissen sie, wie hoch Rome taktet und vor allem, was die CPUs leisten?
Du glaubst doch wohl das Intel bei Asus und Co seine Spitzel sitzen hat die denen sagen was ROME könnte. War doch bei Ryzen genau so.
Oder warum ist das ITX Angebot bei Ryzen so Beschissen ?
 

yummycandy

Captain
Dabei seit
März 2005
Beiträge
4.039
@yummycandy
Die haben sicherlich bei AMD und auch bei Intel angefragt. Das sind ja keine 0/15 Kunden, sondern welche, die einen Supercomputer bauen, der unter den Top 10 sein wird. Eventuell bekommen die dann auch Bench von Prototypen zu sehen.
Klar, davon gehe ich natürlich auch aus. Die Produktvorstellen im Profibereich scheinen ziemlich interessant zu werden. Spätestens dann wissen wir, wie redlich die Aussage war.
Ergänzung ()

Du glaubst doch wohl das Intel bei Asus und Co seine Spitzel sitzen hat die denen sagen was ROME könnte. War doch bei Ryzen genau so.
Oder warum ist das ITX Angebot bei Ryzen so Beschissen ?
Ähmn, Spitzel? Nein. :D Da werden schon handfeste Benchmarks gelaufen sein, wenn auch mit Prototypen. Sofern das nicht passiert ist, wäre die ganze Aussage Makulatur.
 

YforU

Captain
Dabei seit
März 2001
Beiträge
3.333
Nicht das ich es ausschließe, aber woher wissen die das jetzt schon?
Weil es Enterprise CPUs weit vor der offiziellen Markteinführung als Samples zur Validierung und Evaluierung gibt. Bei Projekten und Ausschreibungen dieser Größenordnung werden die Karten zwangsläufig auf den Tisch gelegt. Der potentielle Kunde evaluiert die Hardware und kann dann sehr exakt die Performance des finalen Produktes in seinem Anwendungsfall prognostizieren.
 

-Ps-Y-cO-

Rear Admiral
Dabei seit
Okt. 2007
Beiträge
5.392
Würde mich nicht Wundern wenn nur eine Handvoll Unternehmen zu ROME greifen...
 

MichaG

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Juli 2010
Beiträge
9.283
"Die Äußerungen deuten an, dass Rome schlicht etwas zu spät für das Projekt kommt. "
Nö, Rome eignet sich für die "Workloads" einfach nicht so gut. Es dürfte sich wohl von selbst erklären, dass dies nicht mit dem Kauf eines Privat PC's zu vergleichen ist. Auf ein paar Monate kommt es bei Projekten dieser größe nicht an, die einen Kauf einer anderen Architektur rechtfertigen, weil diese ein Quartal früher verfügbar ist.
"Putzig"....
Seltsam, das Interview, das ich gelesen habe, liefert gleich mehrere Hinweise, dass die Zeit sehr wohl eine Rolle gespielt hat. Ist das nicht putzig? :D

We took a look at AMD Epyc, both Naples and certainly Rome, but with the combination of price, schedules, and performance, we felt like Cascade Lake was the way to get the best value right now. Our codes were just a little better for the time we needed this system but Rome is a promising architecture and we expect it is going to be a very good chip,” Stanzione explained.
 

borizb

Captain
Dabei seit
Nov. 2011
Beiträge
3.760
Je nach Szenario wäre auch DGX2 interessant. Glaubt man Nvidia, sind pro 400K$ 2 Petaflops drin.
Wenn ich das mal Milchmädchenstyle nachrechne, brauche ich 18 davon, um mit 7,2 Mio$ auf die
gleiche (ja ich weiß, nicht die gleiche) Leistung zu kommen. Mit 180KW pro Einheit sollte man auch
dahingehend besser aufgestellt sein, von Platzverbrauch und Kühlung mal ganz abgesehen.
 

yummycandy

Captain
Dabei seit
März 2005
Beiträge
4.039

borizb

Captain
Dabei seit
Nov. 2011
Beiträge
3.760
Würde mich nicht Wundern wenn nur eine Handvoll Unternehmen zu ROME greifen...
Also selbst wenn Rome in allen Szenarien fürs gleiche Geld schneller wäre, was ich nicht mal von der
Hand weisen will, muss man dennoch im Hinterkopf haben, dass ein Supercomputer für Intel nur
Business as usual ist, für AMD aber kaum Expertise geltend gemacht werden kann. Auf dem Papier
gleich gut aufgestellt zu sein, heißt nicht, dass das Gesamtpaket (Intels riesige Armee von Hardware
und Software-Ingenieuren vs. AMDs überschaubares "Team") dann besser ist. Wenn ich einen Code
von Anfang an so schreibe, dass er bei einer Architektur alle Register zieht, ist außerdem anzunehmen,
dass Rome wo auch immer schneller sein mag, aber vielleicht nicht in dieser exakten Disziplin.
 

YforU

Captain
Dabei seit
März 2001
Beiträge
3.333
Seltsam, das Interview, das ich gelesen habe, liefert gleich mehrere Hinweise, dass die Zeit sehr wohl eine Rolle gespielt hat. Ist das nicht putzig? :D
Deine eigene Überschrift impliziert das Gegenteil. Korrekt wäre Cascade Lake statt Naples. Rome hat hier aufgrund des späteren Erscheinungstermins bei der eigentlichen Entscheidung zwischen AMD und Intel (-> Performance) keine Rolle gespielt.
 

ascer

Captain
Dabei seit
Juni 2008
Beiträge
3.387
Nö, Rome eignet sich für die "Workloads" einfach nicht so gut. Es dürfte sich wohl von selbst erklären, dass dies nicht mit dem Kauf eines Privat PC's zu vergleichen ist.
Das passt aber (a) nicht zu dem Kommentar "hatten wir das Gefühl" und (b) gibt es bei AMD mehr Cores bei nur marginal geringeren Taktraten und IPC zu einem weitaus geringeren Preis.

Auch AVX512 war bis jetzt nicht der Riesenunterschied. Ich forsche im AI Umfeld und wir haben z.B. eine Workstation mit i7 7800X, welcher ja AVX512 beherrscht.

Es war bei dem Supercomputer ja durchaus auch von Machine Learning die Rede.
Ich habe TensorFlow (Google's ML Library) mit allen möglichen Optimierungen und Intel MKL kompiliert und verschiedene Simulationen auf der CPU getestet und mit meinem Ryzen 7 2700X zu Hause verglichen.

In manchen edge cases bringt AVX512 viel, aber in den allermeisten Simulationen nutzt man nicht nur irgendwelche exotischen Funktionen die hochoptimiert funktionieren. Für ganz typische neuronale Netze war der 2700X mit seinen 8 Cores häufig sogar marginal schneller als der 6-Core 7800X mit MKL und AVX512 und das, obwohl AVX512 ja richtig saftig Energie verbraucht und der 7800X dadurch deutlich mehr Strom frisst als ein 2700X.

Wenn ich mir die Benutzung unserer Supercomputer anschaue, dann werden da in der Realität allemöglichen Experimente durchgeführt, die an der Uni / Forschungsinstitut / ... eben gerade so anfallen. Viele davon werden sicherlich ebenfalls Gebrauch von Funktionalitäten machen, die sich nicht optimal für AVX512 eignen.
 

MichaG

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Juli 2010
Beiträge
9.283

Joshua2go

Lieutenant
Dabei seit
Nov. 2009
Beiträge
788
In so einem Supercomputer steckt doch viel Rechenleistung für Bitcoin oder? Ich hoffe, Hacker hacken sich über die Sicherheitslücken in den Supercomputer ein und verwenden die Rechenleistung ausgiebig für die Bitcoinberechnung. Es ist wie immer, die Leute werden erst schlau, wenn das Kind in den Brunnen gefallen ist. :king:
 

w0mbat

Lieutenant
Dabei seit
Juni 2006
Beiträge
998
Was für eine seltsame "Nachricht". AMD wurde hier nie wirklich in Betracht gezogen, das Inrerview ist kompletter BS. Die haben schon eine Intel-Plattform und die passende Software, es gab da keine andere Wahl.

Das CB auf sowas reinfällt lässt einen denken...
 

ZeXes

Banned
Dabei seit
Sep. 2017
Beiträge
1.538
In so einem Supercomputer steckt doch viel Rechenleistung für Bitcoin oder? Ich hoffe, Hacker hacken sich über die Sicherheitslücken in den Supercomputer ein und verwenden die Rechenleistung ausgiebig für die Bitcoinberechnung. Es ist wie immer, die Leute werden erst schlau, wenn das Kind in den Brunnen gefallen ist. :king:
Im stärksten Supercomputer der Welt stecken 27,648 Nvidia Tesla V100 GPUs drin. Damit kann man schon gut arbeiten. :evillol:
 

max9123

Cadet 4th Year
Dabei seit
Apr. 2017
Beiträge
110
Ich forsche im AI Umfeld und wir haben z.B. eine Workstation mit i7 7800X, welcher ja AVX512 beherrscht.
Mit eingeschränkter Anzahl an Ausführungseinheiten. Große Unterschiede bestehen derzeit ua. bei Fused-Multiply Add (FMA). Ihr i7 7800X hat hier nur (1x512 Bit) breite Ausführungseinheit, Skylake-X mit 10 Kernen aufwärts haben (2x512 Bit) und damit bis zu dem doppelten Durchsatz pro Takt.
Skylake hat (2x256 Bit), Ryzen 1 (2x128 Bit), kombinierbar auf 2x256Bit/2 Taktzyklen

Vor allem bei skalaren Instruktionen und teilweise auch 128Bit (SSEx.x) liegt wieder meist Ryzen in Front. [1] https://www.agner.org/optimize/blog/read.php?i=838
Die Angabe einer "IPC" ohne klar definiertem Anwendungsgebiet macht alleine schon aus diesem Grund keinen Sinn.

Viele Packages verwenden noch kein AVX, es wird sich allerdings in Zukunft immer mehr verbreiten, da es neben der Parallelisierung und im erheblich geringerem Maßstab Taktsteigerungen, die einzige Möglichkeit darstellt um die Rechenleistung nennenswert zu erhöhen.

Ob zenvers2 nun ein paar Prozent mehr oder weniger Takt hat, ist im Vergleich zu Architekturverbesserungen eher weniger interessant. In welchen Bereichen die Architektur verbessert wird, ist allerdings zum derzeitigen Zeitpunkt reine Spekulation. Für professionelle Anwendungsfälle wäre auf jedem Fall wünschenswert, wenn der Durchsatz bei AVX Instruktionen deutlich erhöht wird.
 

Verminaard

Cadet 4th Year
Dabei seit
Dez. 2011
Beiträge
125
Aber laeuft denn Crysis darauf fluessig?

Die wichtigen Fragen stellt wieder mal keiner.
 
Top