News Frontier: AMD liefert Chips für den 1,5-ExaFLOPS-Supercomputer

@Hopsekäse

Ist einfach ein Laster von mir bei Diskussionen wie dieser ein Bookmark zu setzen und sie dann nochmal hochzuholen.

Hopsekäse schrieb:
Und meine Qualifikation mag sicher nicht die allerhöchste sein. Aber wenn ich mir das Niveau der Diskussionen hier im Forum teilweise ansehe, dann ist das was ich von mir gebe sicherlich selbst dann, wenn ich falsch liege, nichts was man hier durch den Dreck ziehen müsste.

Hab ich das? Ich hab Dich doch lediglich nochmal zitiert, nachdem du damals deine Argumentation mit Deiner Qualifikation untermauert hast und meintest das im HPC Bereich mit AMDs Billiglösung nichts zu gewinnen sei. Diese Aussagen stammen alle von Dir!

Und jetzt bauen sie nicht nur das dickste Ding aus den Teilen, sondern sind sogar bereit dafür den Code umzuschreiben. Spätestens das zweite hätte das Unmögliche eigentlich ausschliessen müssen nach Deinem Bekunden damals.

Aber erstmal die Fanboy Keule geschwungen! Is klar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mythson, Thraker und Hayda Ministral
Schnitz schrieb:
Wohl AMDs Mist



Wie Hitler: Marketingtechnisch leicht vorbelastet.
Dann hätte man das Teil auch "Enigma" nennen können. :evillol:
 
borizb schrieb:
Gibts eigentlich Effizienzmessungen?
Also welche Kombination (Intel/AMD/Nvidia) gibt denn am meisten her?
Wann?
Ergänzung ()

Ned Flanders schrieb:
@Hopsekäse

Hab ich das? Ich hab Dich doch lediglich nochmal zitiert, nachdem du damals deine Argumentation mit Deiner Qualifikation untermauert hast und meintest das im HPC Bereich mit AMDs Billiglösung nichts zu gewinnen sei. …
Naja, man muss aber auch dazu sagen, dass Intel in vielen Bereichen die letzten 5-10 Jahre einfach geschlafen hat. Oder so ziemlich alles verkackt hat..

Wie lang hängen die schon auf 14nm? Wann gab es die letzte Neue CPU Architektur? Was ist aus ihren ganzen Plänen zu GPU, Modem, Smartphone CPU's geworden ...
Ist doch großteils ein unerklärliches Trauerspiel, man muss sich doch nur die Gewinne anchauen die sie in der Zei gemacht hatten und die Investitionen in Forschung etc.
 
florian. schrieb:
also mir sagen 900m² mehr als die Angabe "zwei Basketballfelder".
Passt also 12x in meine Wohnung.

Dann wäre deine Wohnung 12 x 900 m^2.....? Nicht schlecht! ;)
 
  • Gefällt mir
Reaktionen: florian.
zeroman schrieb:
Dann wäre deine Wohnung 12 x 900 m^2.....? Nicht schlecht! ;)

12 Basketballfelder. :)

Wenn man einen Rundgang durch die Wohnung antritt, den Rucksack mit Proviant nicht vergessen. :)
 
  • Gefällt mir
Reaktionen: Rockstar85
Wattwanderer schrieb:
12 Basketballfelder. :)
Indoormotorradstrecke ;) Kannste ja schon fast ne GP drauf abhalten ^^
Und als Partylocation, für den großen Freundeskreis ^^
 
2017: Mining Boom fegt Grafikkartenmarkt leer.
2018: AMD produziert entsprechend den Verkaufszahlen weiter GPUs der nächsten Generation, um sowohl den Miningmarkt, wie auch den Consumer-Markt abdecken können.
Mitte 2018: der Miningmarkt für GPUs bricht wieder ein. NVidia und AMD bleiben auf vielen Karten sitzen.
Ende 2018: AMD: "Braucht irgendjemand einen neuen Supercomputer mit wahnsinnig vielen GPUs?"
2. Quartal 2019: AMD stellt aktuell schnellsten Supercomputer vor, der schon 2 Jahre später fertig sein soll.

na huch?
 
Finde ich für AMD super.

Was mich aber bei der TOP500 Liste wundert ist, das dort keine Mining Farmen drin stehen, die sollten auch genug Rechenleistung haben. :D
 
Schnitz schrieb:
Ob es sich lohnt die Bombe zu werfen.

Schlimmer, wie höre ich die Leute noch besser ab, quasi Stasi 4.0:

Am ORNL ist das High Productivity Computing Systems programangesiedelt, das seit 2004 Massively Parallel Processing und weitere Technologien erforscht, mit denen die Rechenkapazität von Supercomputern gesteigert werden können. Ihm steht als geheimes Zwillingsprogramm die Multiprogram Research Facilityebenfalls in Oak Ridge zur Seite, mit dem die National Security Agency ihrerseits Supercomputer zur Auswertung von Signals Intelligence und der Kryptoanalyseentwirft.
Ergänzung ()

Firesign schrieb:
...

Um die Jahrtausendwende herum, waren die Supercomputer ...

Schau mal in die 90iger, da werden einige Super Computer von iPhones eingeholt
 
Zuletzt bearbeitet:
Jan schrieb:
Infinity Fabric setzt das aktuell voraus, oder?
Gegenfrage: wie sieht die Kommunikation bei epyc dual Socket aus? ;)

Was versprichst du dir von 5 Dies auf einem Interposer? Wer kann solche riesen Teile überhaupt fertigen?
 
Interessant, wie schnell sich einiges ändert in den knapp 10 Jahren. Hab mal die letzte Liste der Top500 überflogen. Gefühlt sind da zu 98% Xeon-Prozessoren verbaut, Itanium hab ich nicht entdeckt, AMD mit Opteron nur ein System. IBMs Power ist da die zweite "Macht" mit deutlichen Abstand hinter den Xeons. Nur wenige "Raritäten" wie die chinesischen Eigenentwicklungen, SPARC und eben AMD, sowie zwei mir völlig unbekannte Prozessoren sind dort vorhanden.
 
Ned Flanders schrieb:
Ich nehm mir raus Dich nochmal drann zu erinnern, weil Du als Supercomputing Spezialist, frisch von der Uni, dem so leidenschaftlich ablehnend gegenüber standest ;-)

Um mal fair zu sein, das hier war der Kern seiner Kritik:

"Und die AMD-Variante ist aus technischer Sicht einfach eine Billiglösung. Anstatt mit großem Aufwand zu versuchen die NUMA-Probleme zu vermeiden, nimmt man sie einfach hin und bietet dann eben mehr Kerne pro Preis und betont die Fälle, wo NUMA kein Drama ist. "

Und jetzt mal so: Zen1 und Zen+ (bzw deren Verwendungen als EPYC) sind NUMA Architekturen. Alles ab Zen 2 ist UMA. Der Kern seiner Kritik war, dass AMD, um eine schnelle EPYC Lösung zu basteln, 4 DIES aneinander geklatscht hat wovon nur zwei direkten RAM Zugriff hatten und für die anderen 2 der Zugriff über eines der anderen laufen musste, was zu NUMA Problemen geführt hat.

Wo lag er denn da falsch?

Das Teil hier, Frontier, basiert mindestens auf Zen 2. Da bestehen keine NUMA Probleme mehr. Also war seine Aussage völlig korrekt. Wer daraus natürlich "bäh bäh bäh er hat was gegen AMD gesagt und ist deshalb voll der "Fachmann" lol" macht, der macht sich in meine Augen eher lächerlich.

Das Ding hier wird deshalb mit AMD gebaut, weil AMD ab Zen 2 im Server Bereich eine UMA Architektur hat. EPYC auf Zen 1 Basis war eben nur für einzelne Bereiche wirklich gut geeignet, aber für andere eher nicht. Auf Zen 1 Basis wäre der Supercomputer hier nicht gebaut worden behaupte ich mal.
 
Er hat damals noch erheblich mehr Kritik an der gesamten Chiplet Strategie geäußert. Du darfst das gerne nochmal nachlesen. Teile davon sind berechtigt, teilweise wars einfach Mumpitz. Im Kern gings darum ob wir Epyc in SC sehen werden oder eher nicht.

Deutlich wurde das dann gegen Ende als die notwendige Anpassung des Codes zum weiteren Ausschlusskriterium wurde.

Hopsekäse schrieb:
Wollen tut man das Ganze aber eigentlich nicht, weil HPC nämlich auch ein Business ist. In einem Business hast du Kunden. Die haben keinen Bock, dass ihr Code plötzlich nicht mehr gut läuft, weil die neue Generation deiner Maschine auf etwas anderes spezialisiert ist. Die haben auch keinen Bock den Code anzupassen, weil jetzt plötzlich mal jemand meinte es müsste mal AMD her.

Und jetzt haben wir halt das dickste Schiff angekündigt wo genau das alles passieren wird, inkl. einem Umschreiben des CUDA Codes via HIP in C++ um es dann in den AMD HCC zu füttern. Und all das nur, um mal AMDs problembehaftete "Bastellösung" auszuprobieren?

JohnVescoya schrieb:
Der Kern seiner Kritik war, dass AMD, um eine schnelle EPYC Lösung zu basteln, 4 DIES aneinander geklatscht hat wovon nur zwei direkten RAM Zugriff hatten und für die anderen 2 der Zugriff über eines der anderen laufen musste, was zu NUMA Problemen geführt hat.

Das ist übrigens ebenfalls falsch. Epyc hat ein 8 Kanal Speicherinterface (2 an jedem Die) und alleine durch dein vokabular stösst du ins gleiche Horn und läufst in die gleiche Falle.

Mir gings bei der Diskussion darum, etwas nicht als "Billiglösung" aus "geklebt", "gebastelt" und "geklatscht" darzustellen was in Wirklichkeit eine Strategie ist um Leistung weiterhin wirtschaftlich skalieren zu lassen. Und da war damals wie heute offensichtlich kein Konsens zu erreichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nitschi66
JohnVescoya schrieb:
Und jetzt mal so: Zen1 und Zen+ (bzw deren Verwendungen als EPYC) sind NUMA Architekturen. Alles ab Zen 2 ist UMA. Der Kern seiner Kritik war, dass AMD, um eine schnelle EPYC Lösung zu basteln, 4 DIES aneinander geklatscht hat wovon nur zwei direkten RAM Zugriff hatten und für die anderen 2 der Zugriff über eines der anderen laufen musste, was zu NUMA Problemen geführt hat.

Wo lag er denn da falsch?

EPYC hat aber ein 8 Channel Speicher Interface. Jedes Die hat sein eigenen Speicher.
Die großen Threadripper haben nur ein 4 Channel Speicher Interface.
Da lag er z.B. falsch.

ups...zu langsam
 
  • Gefällt mir
Reaktionen: Nitschi66
Woops, stimmt, das war Threadripper bei dem nur zwei von vier Dies direkten RAM Zugriff hatten :D Verdammt, verwechselt, ja dann habt ihr Recht! Sorry.
 
JohnVescoya schrieb:
dann habt ihr Recht! Sorry.

Ne, du hast schon trotzdem Recht mit dem was Du sagst, NUMA ist das trotzdem. Das muss aber halt nicht unbedingt so tragisch sein wie dargestellt. Übrigens ist es auch nicht so, das der RAM Zugriff bei monolitischen großen Dies völlig Uniform wäre. Mann muss einfach mal die Kirche im Dorf lassen und nicht alles was anders ist als billige Bastellösung abtun, denn auch diese Lösung hat durchaus ihre Stärken, ab Zen2 natürlich deutlicher als bislang.
 
Schnitz schrieb:
Am Ende des Artikels steht:
ComputerBase hat Informationen zu diesem Artikel von AMD unter NDA erhalten.

Diese Infos sollten die Pressemitteilung aber nicht derart ueberschreiten. CB spekuliert hier ganz offensichtlich aufgrund falscher Annahmen. In dem Satz steht "duerfte" und die Nachfragen von Jan lassen auch keinen anderen Schluss zu.



Schnitz schrieb:
Wie bei allen Supercomputern muss man ja keine Industriestandards für's Package einhalten :)
Natuerlich muss man das nicht. Es gibt aber auch keinen offensichtlichen Grund dazu, das nicht zu tun. 4*PCIe + IFLinks oder eine Mezzazine-artige Loesung sind mindestens genauso wahrscheinlich wie alles auf einen unwahrscheinlich riesigen Interposer zu packen.
 
  • Gefällt mir
Reaktionen: Web-Schecki
sehr schönes stück technik.

jetzt würde mich noch interessieren, was es an strom verbraucht :D

selbst google hat 2012 schon 2,26 Milliarden Kilowattstunden verbraucht. natürlich haben die niemals alle ihre rechner zusammen für eine große berechnung laufen lassen :evillol:

https://www.zdnet.de/41556266/google-veroeffentlicht-stromverbrauch-seiner-rechenzentren/

die definition von "supercomputer" empfinde ich persönlich halt auch immer stark grenzwertig. mit verteiltem rechnen ist sogar das folding at home ein "supercomputer"

mfg
 
[wege]mini schrieb:
sehr schönes stück technik.

jetzt würde mich noch interessieren, was es an strom verbraucht :D
Bis zu 40MW. Wobei das die zur Verfügung stehende Menge Strom ist.
 
  • Gefällt mir
Reaktionen: [wege]mini
Zurück
Oben