Eigene CPU und ASIC: Microsoft rüstet für den AI-Wettstreit deutlich auf

Volker Rißka
20 Kommentare
Eigene CPU und ASIC: Microsoft rüstet für den AI-Wettstreit deutlich auf
Bild: Microsoft

Mit dem Microsoft Azure Maia AI Accelerator und der Microsoft Azure Cobalt CPU will das Unternehmen im AI-Wettstreit vorn mitmischen. Diese Custom-Lösungen sind, wie der Name schon darlegt, auf die eigene Azure-Umgebung in der Cloud gedacht und sollen ab 2024 eingeführt werden.

Zwei neue Custom-Chips für die eigene Cloud

Azure Maia ist ein KI-Beschleuniger-Chip, der für Cloud-basiertes Training und Inferencing für KI-Workloads wie OpenAI-Modelle, Bing, GitHub Copilot und ChatGPT entwickelt wurde. Da aber nicht alles gleich Künstliche Intelligenz braucht, steht ein Bindeglied für die herkömmlichen Sachen an dessen Seite: Azure Cobalt ist ein Cloud-nativer Chip, der auf der Arm-Architektur basiert und für Leistung sowie Energie- und Kosteneffizienz bei allgemeinen Arbeitslasten optimiert ist.

Die technischen Details zu beiden Lösungen sind von offizieller Seite bestenfalls dünn gesät, zum großen Teil nicht vorhanden. Von der Cobalt-CPU ist bekannt, dass sie auf Arm Neoverse N2 basiert. 128 Kerne werden von einem 12-Kanal-Speicherinterface flankiert, die Leistung soll gegenüber dem nicht genauer benannten Vorgänger um 40 Prozent höher liegen.

Cobalt 100
Cobalt 100 (Bild: Microsoft)
Maia 100
Maia 100 (Bild: Microsoft)

TSMCs 5-nm-Fertigung sorgt auch für das Herzstück von Maia. Das Produktbild lässt auch die passende CoWoS-Packaging-Technologie erkennen, vier HBM-Chips an den Seiten des „Grafikchips“, in dem Fall eigentlich eher ein ASIC, stehen zur Verfügung. Einen Vergleich scheut Microsoft hier erst einmal komplett.

Kühlung für die Maia 100
Kühlung für die Maia 100 (Bild: Microsoft)
Ein neues Rack für Maia
Ein neues Rack für Maia (Bild: Microsoft)

Microsoft betont, dass man mit den Custom-Lösungen den Kundenwünschen besser nachkommen kann. Angepasste Software und die eigenen Rechenzentren – die ersten werden aktuell mit den neuen Chips bestückt – sollen einen Mehrwert gegenüber der starken Konkurrenz bieten.

Auch Microsoft-Systeme mit AMD MI300X und Nvidia H100/H200

Zusätzlich zu den neuen Eigenentwicklungen baut Microsoft seine Partnerschaften mit Hardware-Anbietern aus, um seinen Kunden weitere Infrastruktur-Auswahlmöglichkeiten anbieten zu können. So wird man unter anderem AMD Instinct MI300X beschleunigte virtuelle Maschinen (VMs) zu Azure hinzufügen. Die ND MI300 VMs wurden entwickelt, um die Verarbeitung von KI-Workloads für das Training von KI-Modellen mit hoher Reichweite und für generative Inferenz zu beschleunigen. Offiziell startet die MI300-Familie von AMD am 6. Dezember.

AMD Instinct UBB 8xMI300X
AMD Instinct UBB 8xMI300X (Bild: AMD)

Die Preview der neuen NC H100 v5 Virtual Machine Series, die für Nvidia H100 entwickelt wurde, bietet mehr Leistung, Zuverlässigkeit und Effizienz für das Training künstlicher Intelligenz im mittleren Leistungsbereich und für generatives KI-Inferencing, erklärt das Unternehmen. Außerdem kündigt Microsoft seine Pläne für die ND H200 v5 Virtual Machine Series an, eine KI-optimierte VM mit der kommenden neuen Nvidia H200.