Bilder Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU

Derzeit üblicher Aufbau eines Datacenters
Derzeit üblicher Aufbau eines Datacenters (Bild: Nvidia)
Nvidia A100-GPU
Nvidia A100-GPU (Bild: Nvidia)
A100-GPU aus Basis der Ampere-Architektur
A100-GPU aus Basis der Ampere-Architektur (Bild: Nvidia)
GA100 Vollausbau mit 128 SMs
GA100 Vollausbau mit 128 SMs (Bild: Nvidia)
SM im Detail
SM im Detail (Bild: Nvidia)
Neue Standard MAD TF32
Neue Standard MAD TF32 (Bild: Nvidia)
Tensor Cores der 3. Generation
Tensor Cores der 3. Generation (Bild: Nvidia)
Sparsity-Beschleunigung für bis zu 20 Mal höhere KI-Leistung
Sparsity-Beschleunigung für bis zu 20 Mal höhere KI-Leistung (Bild: Nvidia)
20 Mal höhere KI-Leistung für FP32 mit TF32 und INT8
20 Mal höhere KI-Leistung für FP32 mit TF32 und INT8 (Bild: Nvidia)
MIG bis zu zu sieben GPUs pro A100
MIG bis zu zu sieben GPUs pro A100 (Bild: Nvidia)
Zwei Rome-CPUs von AMD kommen auch zum Einsatz
Zwei Rome-CPUs von AMD kommen auch zum Einsatz (Bild: Nvidia)
DGX A100 liefert 5 PetaFLOPS FP16
DGX A100 liefert 5 PetaFLOPS FP16 (Bild: Nvidia)
Rechenleistung mit Sparsity-Beschleunigung
Rechenleistung mit Sparsity-Beschleunigung (Bild: Nvidia)
Ab sofort für 199.000 US-Dollar vor Steuern lieferbar
Ab sofort für 199.000 US-Dollar vor Steuern lieferbar (Bild: Nvidia)
DGX A100
DGX A100 (Bild: Nvidia)
DGX A100
DGX A100 (Bild: Nvidia)
DGX A100
DGX A100 (Bild: Nvidia)
Ampere soll aus diesem Aufbau mit 25 Racks nur noch 1 Rack machen
Ampere soll aus diesem Aufbau mit 25 Racks nur noch 1 Rack machen (Bild: Nvidia)
1 Rack mit 5 DGX A100 für ein Zehntel der Kosten des alten Aufbaus
1 Rack mit 5 DGX A100 für ein Zehntel der Kosten des alten Aufbaus (Bild: Nvidia)
DGX A100 SuperPOD mit 140 A100-GPUs und Mellanox-Interfaces
DGX A100 SuperPOD mit 140 A100-GPUs und Mellanox-Interfaces (Bild: Nvidia)
Nvidia erweitert eigenen Supercomputer SATURNV um Ampere
Nvidia erweitert eigenen Supercomputer SATURNV um Ampere (Bild: Nvidia)
HGX A100 für Drittanbieter von A100-Clustern
HGX A100 für Drittanbieter von A100-Clustern (Bild: Nvidia)
EGX A100
EGX A100 (Bild: Nvidia)
EGX A100 für den Einsatz in der Edge-Cloud
EGX A100 für den Einsatz in der Edge-Cloud (Bild: Nvidia)
EGX A100 für den Einsatz in der Edge-Cloud
EGX A100 für den Einsatz in der Edge-Cloud (Bild: Nvidia)
Einsatzgebiete für EGX A100
Einsatzgebiete für EGX A100 (Bild: Nvidia)
Nvidia Drive Orin nutzt ebenfalls die Ampere-Architektur
Nvidia Drive Orin nutzt ebenfalls die Ampere-Architektur (Bild: Nvidia)