KI-Beschleuniger: Microsoft beschleunigt Azure mit Maia 200 für KI

DevPandi
24 Kommentare
KI-Beschleuniger: Microsoft beschleunigt Azure mit Maia 200 für KI
Bild: news.microsoft.com

Beim Thema KI und KI-Beschleuniger führt in der Regel kein Weg an Nvidia vorbei. Andere Hersteller inklusive Branchenriesen wie Amazon und Google tun sich schwer dagegen, versuchen es aber immer wieder ein Mal. So erneut Microsoft mit „Maia 200“, einem KI-Chip für die Azure Cloud, der sich gegen die Konkurrenz stemmt.

Vergleich nur mit AWS und Google

Microsoft gibt an, dass Maia 200 in ihrem Datenzentrum in der Nähe von Des Moines (Iowa) eingesetzt werden wird. Zu einem späteren Zeitpunkt sollen das US-Rechenzentrum West 3 in Phoenix (Arizona) und andere Regionen folgen. Betont wird, dass sich Maia 200 nahtlos in Azure integrieren lässt. Notwendig dafür ist das Maia-SDK mit entsprechenden Werkzeugen zur Programmierung der Hardware, das in einer Preview-Version zur Verfügung steht. Maia kann dabei auch auf eine eigene Low-Level-Programmiersprache zurückgreifen.

In ihrer Vorstellung zieht Microsoft einen Vergleich zu AWS Trainium 3 sowie Googles TPU v7 alias Ironwood und kann bei den wichtigen Eckdaten entsprechend auftrumpfen – auch wenn man einem direkten Vergleich mit Nvidia aus dem Weg geht. 216 GB HBM-Speicher, 5.072 TFLOPS Rechenleistung im Datenformat FP8 und 10 PetaFLOPS für FP4. Auch bei den weiteren Daten schneidet Maia 200 gut ab und liegt vor der direkten Konkurrenz.

Azure Maia 200 AWS Trainium 3 Google TPU v7 Nvidia B200
Prozess TSMC 3 nm 4N
FP4 TFLOPS 10.145 2.517 18.000
FP8 TFLOPS 5.072 2.517 4.614 9.000
BF16 TFLOPS 1.268 671 2.307 4.500
VRAM 216 GB HBM3E 144 GB HBM3E 192 GB HBM3E
VRAM-Bandbreite 7 TB/s 4,9 TB/s 7,4 TB/s 7,7 TB/s
Interconnect 2,8 TB/s 2,2 – 2,56 TB/s 1,2 TB/s 1,8 TB/s

Diese Leistungsdaten sollen Maia 200 bei einer TDP von 750 Watt seine Konkurrenzfähigeit bescheinigen. Mit den Eckdaten ist der Chip zudem laut Microsoft für die aktuell größten KI-Modelle geeignet und hat reichlich Spielraum für noch größere Modelle in der Zukunft. Jede Maia-200-GPU verfügt zudem über ein bidirektionales Fabric, über das 2,8 TB/s gesendet werden können soll, was mehr ist als bei Nvidia NVLink auf einer B200-GPU wäre, die auf 1,8 TB/s kommt.

Den direkten Vergleich zu Nvidias B200 scheut Microsoft in ihrer Vorstellung, da eine B200-GPU bei 1000 W TDP doch noch mal ein gutes Stück schneller wäre, sofern angenommen wird, dass Microsoft die Sparse-Rechenleistung angibt.

Der große Leser-Blindtest Nativ vs. DLSS 4.5 vs. FSR AI – mach mit und wähle deine Favoriten!