AI200 & AI250: Qualcomm stellt AI-Konkurrenz für AMD, Nvidia und Intel vor

Jan-Frederik Timm
8 Kommentare
AI200 & AI250: Qualcomm stellt AI-Konkurrenz für AMD, Nvidia und Intel vor
Bild: Qualcomm

Mit AI200 und AI250 hat Qualcomm zwei komplette Server-Racks für AI-Rechenzentren angekündigt. AI200 soll im kommenden Jahr erhältlich sein und Hexagon-NPU-Technologie nutzen. AI250 ist quasi der Nachfolger: Ab 2027 soll es diese verbesserte Ausbaustufe mit „innovativer Speichertechnologie“ geben. Die Aktie reagiert prompt.

Die Aktie reagiert deutlich

Im Nachgang der Ankündigung, in Zukunft groß im Geschäft mit Racks für AI-Rechenzentren mitspielen zu wollen, stieg die Aktie erstmals auf über 200 US-Dollar – ein Plus von knapp 18 Prozent. Zur Stunde steht ein Plus von 12 Prozent in den Büchern.

Viel Leistung mit viel Speicher zum niedrigsten TCO

Beide Systeme verfolgen laut Qualcomm das Ziel, Leistung auf Rack-Niveau bei überlegener Speicherkapazität zu industrieweit führenden Total Cost of Ownership (TCO) bereitzustellen. Nicht das Training von AI-Modellen, sondern deren Nutzung (Inferencing) ist der Zielmarkt.

Genannt werden 768 GB LPDDR5 „je Steckkarte“ – wie viele in einem Rack stecken oder wie viele Prozessoren respektive Hexagon-NPUs sich diesen Speicher teilen, darüber gibt Qualcomm noch keine Details bekannt.

Both solutions feature a rich software stack and seamless compatibility with leading AI frameworks, empowering enterprises and developers to deploy secure, scalable generative AI across data centers.

Beide Racks, das Chassis dürfte bei AI200 und AI250 identisch sein, werden wassergekühlt und bieten eine Gesamtleistungsaufnahme von bis zu 160.000 Watt. Skaliert werden können die Racks intern über PCI Express (Steckkarten), extern über Ethernet.

Und die Software?

Nvidia hat extrem schnelle GPUs, aber weitere entscheidende Wettbewerbsvorteile sind der Software-Stack und das große Software-Ökosystem. Auch Qualcomm will mit dem eigenen Software-Stack abliefern und zu wesentlichen Frameworks wie PyTorch und ONNX, Inference-Engines wie vLLM, Gen-AI-Frameworks wie LangChain und CrewAI kompatibel sein.

Both solutions feature a rich software stack and seamless compatibility with leading AI frameworks, empowering enterprises and developers to deploy secure, scalable generative AI across data centers.

AI250 mit Near Memory Computing

AI250 wird gegenüber AI200 über eine neue Rechenarchitektur verfügen. Qualcomm nennt als entscheidende Innovation Near Memory Computing (NMC), das die effektive Speicherbandbreite um den Faktor 10 anheben soll. Details bleibt der US-Hersteller aber auch in diesem Punkt noch schuldig.