icemanspirit schrieb:
Wuerde ich stark widersprechen.
Der Vergleich mit ANSYS finde ich stark an den Haaren herbeigezogen. Auf Supercomputern rechnet kaum jemand mit ANSYS, und schon gar nicht auf der Skala von mehreren tausend GPUs.
Das stimmt nicht, welche Software sollte dann ansonsten zum Einsatz kommen?
Auf Supercomputer wie HLRS Stuttgart gibt es gewöhnlich wie bie vielen anderen Systemen ein Portfolio wie z.B. Ansys, Openfoam, Star CCM usw. Der jeweilige Anwender wählt die von ihm gewünschte Software.
icemanspirit schrieb:
Aktuelle Klimamodelle laufen insbesonders auf GPUs, wobei das Tooling hierfuer sich fairerweise auch erst in den letzten Jahren etabliert hat.
Die Kernreferenzen hierfuer sind:
Merkwürdige Referenzen. Bei der Referenz Nr. 1 wird ein Python Code vorgestellt und kein eigentliches Klimamodell. Vor allem gibt des die Klimamodelle in unterschiedlichen Detailgraden und bei dem vorgestellen Python Code handelt es sich, nach kurzen Blick, um ein sehr einfaches Klimamodell.
Dann wurde nur bis gerade mal eine Gridsize von einer Million getestet und wie man anhand Figure 5 sehen kann, skaliert der Python Code ab 10 GPUs nicht mehr. Während der Fortan Code über die CPUs (Figure 4) bei ebenfalls einer Million Gridsize noch bei über 300 MPI Prozesse skaliert.
Tut mit leid das spricht jetzt nicht gerade für diesen Python Code. Vor allem ist eine Gridsize von einer Million aus dem Stand der 80er Jahre. Das ist simit keine Referenz. Wie schaut es bei 200 Millionen aus?
Wie bereits erwähnt handelt es sich bei der Publikation um kein etabliertes Klimamodell nach aktuellen Stand der Wissenschaft was pratkisch angewandt wird.
Bei der zweiten Referenz geht es mal wieder um das leidige Thema bei LES auf einer GPU. Das ist nichts neues.
Beispiel von LES auf einer GPU:
Es gibt noch viele andere Beispiele. Problem ist hier einfach die Genauigkeit, aus diesem Grund hat sich das bisher auch noch nicht etabliert.
Kernreferenz:
https://www.cfd-online.com/
mit viele Abhandlungen und Benchmarks das bei CFD über FVM und teilweise FEM eben die GPUs als Beschleuniger keinen Nutzen haben.
Also als Kernreferenzen würde ich die zwei Links bezüglich der Publikationen jetzt nicht sehen und auch nicht als Beleg bezüglich der Behauptung die Berechnungen würden über GPU stattfinden oder deutlich schneller sein.
icemanspirit schrieb:
@Airis hat dies schon richig dargelegt. Keine Forschungsgruppe entwickelt mehr homogene CPU-Codes, wenn sie anstrebt auf Tier-0, oder Tier-1 Systemene zu rechnen.
Die Ausnahmen fuer CFD, oder effektiv alle memory-bound HPC-Anwendungen, sind Fugaku mit seinen Fujitsu A-64 FX und die Milan-X Prozessoren, welche beide HBM Speicher auf der CPU haben und somit zu "kleinen GPUs" werden.
Supercomputer wie der HLRS Stuttgart werden immer für eine breite Anwendergruppe gebaut. Wie ich ursprünglich erwähnt habe ist in Teilbereichen die Beschleunigung durch eine GPU
gegeben. Somit werden die Systeme alle mit GPU Beschleuniger ausgestattet. Das ist aber kein pauschaler Beleg das eben die Systeme ohne GPU Beschleuniger nicht mehr zeitgemäß und in der Berechnungsgeschwindigkeit deutlich unterlegen sind, denn das entspricht nicht den Tatsachen. Bei CFD bietet eine GPU keinen Mehrwert, weitere Referenzen und Benchmarks sind z.B: hier zu finden:
https://www.cfd-online.com/
icemanspirit schrieb:
P.S.: Die neuen GPUs haben zudem weitaus mehr Speicher mit 80GB (NVIDIA) und 128GB (AMD).
Das ist schön, aber trotzdem noch zu wenig. Gängige Praxis über mehrere GPUs per NVLink den Vram erhöhen, tolle Notlösung.