Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News>15 AI-ExaFLOPS mit Nvidia: Der HammerHAI-Supercomputer am HLRS kommt von HPE
Einer Ausschreibung der European High Performance Computing Joint Undertaking (EuroHPC JU) folgend, wird HPE einen KI-optimierten Supercomputer für die AI Factory HammerHAI am Höchstleistungsrechenzentrum Stuttgart (HLRS) bereitstellen. Die Lösung basiert auf Nvidias GB200-NVL4-Architektur und wird über 15 AI-ExaFLOPS bieten.
Flops sind Gleitkommaoperationen pro Sekunde, darin wird Rechenleistung schon immer angegeben. Verschiedene Anwendungen brauchen dabei verschieden präzise Datentypen, klassisches Supercomputing arbeitet mit 64bit, für AI wird mittlerweile meistens nur noch 4bit angegeben.
Und warum nicht in Watt? Weil die meisten großen AI-Zentren Probleme mit der Stromversorgung haben. Die gibt es hier nicht, entsprechend keinen Grund, damit hausieren zu gehen.
Immerhin existiert das Budget und wird es umgesetzt. Wenn Unternehmen von Faszilliarden sprechen und nichts davon ausgeben, bringt das noch weniger.
Mal davon abgesehen, dass auch die ihre Stromanbindung nicht immer haben.