News Frontier: AMD liefert Chips für den 1,5-ExaFLOPS-Supercomputer

Haldi schrieb:
Als unwissender hätte ich jetzt mal Pi über den Daumen geschätzt das von den 600mio Budget 100-200 Mio an AMD gehen für die Hardware.

Die Hardware kommt jedoch nicht von AMD, nur die Chips rest bastelt Cray zusammen, daher wird das eher unter "Unser Logo geht um die Welt"Marketing laufen als wirklich profitabel.
 
Ist eigentlich Wurst ob man Gewinn macht oder nur eine schwarze Null. Der erste Platz auf der Top500-Liste ist das was zählt. Eine bessere Werbung für Server-Lösungen gibt es eigentlich nicht.
 
  • Gefällt mir
Reaktionen: Hatch, yummycandy, ThePowerOfDream und 2 andere
v_ossi schrieb:
@yummycandy Bloß schlägt AMD daraus mMn noch nicht wirklich Kapital.
Nein, ist ja noch zu früh. Gerade solche Systeme werden Jahre vorher geplant. Umso länger dauert es, ehe mehr Top500 Systeme mit AMD ausgerüstet werden könnten.
 
Schnitz schrieb:
Damit werden Atombombenexplosionen simuliert. Deswegen gibt es heute keine physischen Tests mehr
Mit welchem Ziel denn, die Prinzipien dahinter sind doch weitgehend erforscht und ob es beim Gegner ein wenig mehr oder weniger rumst ist doch völlig egal.
 
Nitschi66 schrieb:
Und wie oft passt das Saarland da rein?!
779788

:D
 
  • Gefällt mir
Reaktionen: Thraker und Gnarfoz
yummycandy schrieb:
Umso länger dauert es, ehe mehr Top500 Systeme mit AMD ausgerüstet werden könnten.

Dabei muss man auch bedenken das "die kleine Firma" AMD hier eine große Menge CPUs und GPUs einsetzt die nicht mehr für OEM und Server verfügbar sind. Die produzieren aus dem laufenden Etat keine Unmengen "auf Halde".

Pandora schrieb:
Mit welchem Ziel denn, die Prinzipien dahinter sind doch weitgehend erforscht und ob es beim Gegner ein wenig mehr oder weniger rumst ist doch völlig egal.

Es gibt einen Unterschied zwischen taktischen und strategischen Atomschlägen. Von daher ist der "Rums" absolut nicht egal.
 
  • Gefällt mir
Reaktionen: Otsy und Nitschi66
GERmaximus schrieb:
Immer wenn ich Supercomputer höre, frage ich mich: was rechnen die damit eigentlich?
Und als nächstes frage ich mich:
Wie kann man so viele einzelne Module zum gemeinsamen rechnen überzeugen, aber im Consumer Markt können nicht mal 2 GPU s sinnvoll miteinander umgehen

Jede Mengue:

1. Fragen: Wettervorhersage, Formeln mit Molekülen, Virtualisierung, Simulationen, usw.
Ob das Resultat 10std. braucht, oder 4std. macht schon eine Unterschied.

2. Frage: Dort wir auch Geld in der Hand genommen. Heutzutage müssen die "Kinder" alles haben, und am beste gratis. So dass "niemand" bereit ist für die Optimierungen, usw. zu bezahlen. So einfach ist das.
 
  • Gefällt mir
Reaktionen: max9123
Demolition-Man schrieb:
But can it run Crysis?

Korrekt, wenn Oakridge National Laboratory draufsteht, kann man davon ausgehen, dass es sich, unter anderem, um Atombomben-Simulationen handelt.
Yes it can.
Mr. President please don´t touch the red button.
Now you shut down the simulation and interupted ww3.

There was no firewall!!!
 
Währenddessen in Deutschland: "Merkel ist das Händy aus der Hand gefallen und sie sucht vergebens den Anschalter."
 
  • Gefällt mir
Reaktionen: Unnu, Smartbomb, Schnitz und eine weitere Person
Jan schrieb:
1× Epyc + 4× Radeon Instinct auf einem Package

Eine Anpassung dürfte aber die Anbindung der CPUs an die GPUs betreffen: Immer eine CPU soll für vier GPUs verantwortlich sein, heißt es. Sie basiert auf AMDs Infinity Fabric. Damit dürften je eine CPU und vier GPUs auf einem gemeinsamen und potentiell sehr großen Interposer zum Einsatz kommen.

Zur News: Frontier: AMD liefert Chips für den 1,5-ExaFLOPS-Supercomputer
Woher kommt denn die Info?

Ich sehe davon in der offiziellen Ankuendigung nichts. Ich halte es fuer unwahrscheinlich, dass man 4 fette GPUs inkl. HBM und einer dicken Epyc CPU auf ein Package bekommt. Der Sinn erschliesst sich mir auch nicht, das muss aber natuerlich nichts heissen.

Zur Erinnerung: Infinity Fabric ist ein Sammelbegriff, den AMD sowohl bei der Kommunikation innerhalb eines Chips, als auch unter mehreren Chips innerhalb eines Package und unter mehreren Packages verwendet.

Die Vega20 Instinct hat analog zu NVLink IF Links, die ueber eine Bruecke am oberen Ende der Karte angeschlossen werden.
 
  • Gefällt mir
Reaktionen: Web-Schecki
flmr schrieb:
Woher kommt denn die Info?

Am Ende des Artikels steht:
ComputerBase hat Informationen zu diesem Artikel von AMD unter NDA erhalten.

flmr schrieb:
dass man 4 fette GPUs inkl. HBM und einer dicken Epyc CPU auf ein Package bekommt.

Wie bei allen Supercomputern muss man ja keine Industriestandards für's Package einhalten :)
 
  • Gefällt mir
Reaktionen: psYcho-edgE
GERmaximus schrieb:
Immer wenn ich Supercomputer höre, frage ich mich: was rechnen die damit eigentlich?

Beispielsweise:
Millionen von Datensätzen aus verschiedenen Radioteleskopen verarbeiten, die am Ende das Bild eines schwarzen Lochs ergeben (versch. Supercomputer, u.a. im Max Planck Institut für Radioastronomie, die an einem zentralen Supercomputer für die Datenweitergabe ["Kollator"] angeschlossen sind und die Datenverarbeitung übernehmen).
Oder Klimasimulationen (z.B. Platz 67 der Top Supercomputer geht an den des deutschen Klimarechenzentrums). Oder Traveling Salesman-Probleme.
Oder oder oder...

GERmaximus schrieb:
Und als nächstes frage ich mich:
Wie kann man so viele einzelne Module zum gemeinsamen rechnen überzeugen, aber im Consumer Markt können nicht mal 2 GPU s sinnvoll miteinander umgehen

U.a. andere Betriebssysteme. Außerdem ist die Beschaffenheit der Daten, die Architektur des Systems und das "Rechenziel" meist völlig anders strukturiert.
Siehe:
Nixdorf schrieb:
Es gibt da verschiedene Umsetzungen für das Protokoll, und IFIS ist zwischen Sockeln. Das erhöht natürlich die Latenzen. Bei einer GPU für Spiele wäre das noch ein Problem, bei GPUs für Compute nicht mehr so sehr.

Diese Supercomputer bekommen die Zeit, die sie brauchen. Weil man erstens weiß, dass es nicht schneller geht (da eh schon das maximal machbare an finanziellen und hochtechnologischen Mitteln investiert wurde) und zweitens der exakte Zeitpunkt, wann das Ergebnis kommt, zweitrangig ist.
 
Zuletzt bearbeitet:
Jan schrieb:
Infinity Fabric setzt das aktuell voraus, oder?
Nein. Denn...

Ozmog schrieb:
Wird Infinity Fabric nicht auch für die Kommunikation zwischen zwei Epics verwendet? Mir war jedenfalls so.
Ganz genau. Es gibt da verschiedene Umsetzungen für das Protokoll, und IFIS ist zwischen Sockeln. Das erhöht natürlich die Latenzen. Bei einer GPU für Spiele wäre das noch ein Problem, bei GPUs für Compute nicht mehr so sehr.
 
  • Gefällt mir
Reaktionen: Web-Schecki, yummycandy und psYcho-edgE
Damit wird nicht die Wettervorhersage, sondern das Wetter selbst berechnet.

und dann schön in der ganzen Welt verteilt :D

Btw .. Wettervorgersage. Vllt schafft man es mit AMD Unterbau ja mal etwas genauer zu werden. :evillol:
 
Ich nehm mir raus Dich nochmal drann zu erinnern, weil Du als Supercomputing Spezialist, frisch von der Uni, dem so leidenschaftlich ablehnend gegenüber standest ;-)

Hopsekäse schrieb:
Und die AMD-Variante ist aus technischer Sicht einfach eine Billiglösung. Anstatt mit großem Aufwand zu versuchen die NUMA-Probleme zu vermeiden, nimmt man sie einfach hin und bietet dann eben mehr Kerne pro Preis und betont die Fälle, wo NUMA kein Drama ist. Ja, ist auch irgendwo clever, aber vorrangig wirtschaftlich und weniger technisch. Ist vielleicht neutral betrachtet 70% Billiglösung, ich kann aber auch irgendwo nachvollziehen, dass das aus Intels Sicht eher 150% Billiglösung ist. Die wissen im Zweifel auch am besten wie teuer die Alternativen wirklich sind.

Ich kann das irgendwo auch persönlich nachvollziehen, weil ich noch halbwegs frisch aus der Uni komme und jetzt im Supercomputing tätig bin.

Hopsekäse schrieb:
Joa, der zweite jetzt nach dem Ding in Italien, oder?
Wobei... gerade nachgesehen... eher klein und hauptsächlich ein Cluster, also kein MPP, kein HPC-Interconnect... Wirklich mehr so ein "Bunch of Servers". Naja, schön für AMD.
 
  • Gefällt mir
Reaktionen: Inxession, Hayda Ministral und Rockstar85
Zurück
Oben