News Rack-Scale-AI von Qualcomm: AI200 kommt mit AMD-CPUs, ab 2028+ dann eigene Oryon-CPU

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.826
  • Gefällt mir
Reaktionen: the_IT_Guy
Wer sich auch fragt, was sich hinter Ai200 und AI250 verbirgt: Inference-Beschleuniger-Karten. In Marketing-Sprech:
Qualcomm AI200 introduces a purpose-built rack-level AI inference solution designed to deliver low total cost of ownership (TCO) and optimized performance for large language & multimodal model (LLM, LMM) inference and other AI workloads. It supports 768 GB of LPDDR per card for higher memory capacity and lower cost, enabling exceptional scale and flexibility for AI inference.

The Qualcomm AI250 solution will debut with an innovative memory architecture based on near-memory computing, providing a generational leap in efficiency and performance for AI inference workloads by delivering greater than 10x higher effective memory bandwidth and much lower power consumption. This enables disaggregated AI inferencing for efficient utilization of hardware while meeting customer performance and cost requirements.
https://www.qualcomm.com/news/relea...200-and-ai250-redefining-rack-scale-data-cent

Eine Frage bleibt: Warum stellt man einen 1,6Tonnen Schrank auf dem Mobile World Congress vor?

Edit: jetzt erst den Link in der News auf den CB-Artikel gesehen :freaky:
 
Zuletzt bearbeitet:
Cr4y schrieb:
Eine Frage bleibt: Warum stellt man einen 1,6Tonnen Schrank auf dem Mobile World Congress vor
Investition für einen Messeauftritt tätigen und dann bewusst etwas Ausstellen, was unter aktuellen Marktbedingungen gut für den Aktienkurs ist.
Für Mobile wäre sicher der nächster Snapdragon plus 6G Modem als Prototyp angemessene Ausstellungsstücke. Es wäre aber ein schlechtes Zeichen für den Markt, da dank Speichermangels eh mit einem Abschwung beim gesättigtem Markt von Smartphones und Vergleichbarem gerechnet wird.



Der Aufbau in den Racks. Es ist beeindruckend, wie wenig Kostenoptimierung da bei Konstruktion und Fertigung da (bisher) betrieben wurde. Die Aluminiumplatten aus der CNC-Fräse sind teuer, vor allem weil sie sichtbar mit einem recht kleinem Fräser bearbeitet wurden. Dann die großen Verteiler aus Kupfer und Edelstahl, die auf den ersten Blick auch alle ihre Oberflächen im CNC-Zentrum bearbeitet bekommen haben.
 
Zuletzt bearbeitet:
So eine geile WaKü schaut euch mal die Bilder an, ein Traum :D

1772525066413.png


Und diese dicken, fetten Wurstschläuche :love:

Grüße Kazuja
 
  • Gefällt mir
Reaktionen: the_IT_Guy, downunder4two und GameOC
Volker schrieb:
Zum MWC 2026 hat Qualcomm Details zur bevorstehenden AI-Rack-Scale-Lösung für Künstliche Intelligenz verraten. Aktuell und in naher Zukunft setzt das Unternehmen für die geplanten Beschleuniger AI200 und AI250 auf Epyc-CPUs von AMD, erst 2028+ soll dann wirklich der eigene Datacenter-Prozessor auf Oryon-Basis integriert werden.
Keine Überraschung, schließlich wird Qualcomm ja noch einige Zeit brauchen, bis sie Chiplet-Design beherrschen und erst danach können sie einen konkurrenzfähigen Server-Prozessor bauen. Und währenddessen müssen sie darauf hoffen, dass sie architektonisch nicht abrutschen bzw. sogar noch ordentlich eine Schippe drauflegen...
 
Piktogramm schrieb:


Der Aufbau in den Racks. Es ist beeindruckend, wie wenig Kostenoptimierung da bei Konstruktion und Fertigung da (bisher) betrieben wurde. Die Aluminiumplatten aus der CNC-Fräse sind teuer, vor allem weil sie sichtbar mit einem recht kleinem Fräser bearbeitet wurden. Dann die großen Verteiler aus Kupfer und Edelstahl, die auf den ersten Blick auch alle ihre Oberflächen im CNC-Zentrum bearbeitet bekommen haben.
Es ist ein Prototyp.
Was würdest du mit dem Alu machen?
8fach Druckguss Werkzeug und mechanische Nachbearbeitung? Nicht für Prototypen.

Der kleine Fräser ist Standard und die Technik nennt sich „HCS“ Fräsen. Geschwindigkeit wird gegenüber Abtragsvolumen priorisiert.
 
@Piktogramm @sconic bin auch in dem Bereich "innovative Verfahren, neue Produkte" schnell auf die Beine stellen unterwegs (in einem riesigen Industriekonzern). Um es mal vereinfacht auszudrücken. Du musst manchmal auf die Optimierung der Kosten komplett verzichten, um Zeit zu sparen und sehr schnell zu sein. Damit überhaupt erst mal was "da steht“, worüber man diskutieren kann. Daher kann ich das komplett nachvollziehen.
 
Kazuja schrieb:
Du musst manchmal auf die Optimierung der Kosten komplett verzichten, um Zeit zu sparen und sehr schnell zu sein.
Ich würds eher ganz klassisch ausdrücken: Zeit ist Geld. Auch das ist Kostenoptimierung.
 
  • Gefällt mir
Reaktionen: Kazuja
@sconic @Kazuja Das "bisher" in Klammern steht in meinem Post ist nicht ganz grundlos, mir ist schon bewusst, dass es Gründe dafür gibt, wieso es so ist, wie es ist. Interessant ist es Imho dennoch.

@sconic
Ohne die Anforderungen im Detail zu kennen, ist es schwer zu optimieren. Aber so Dinge wie die Plateaus auf der Oberfläche. Wenn es da keine weiteren Gründe dafür gibt (minimale Länge des Gewindes als Beispiel), könnte die Aufgabe auch eine Abstandshülse erfüllen. Dann wäre die Oberfläche in einer Ebene und anstatt das abzuzeilen könnte das mit einem Planfräser in gröberem Raster geschruppt werden.
 
  • Gefällt mir
Reaktionen: sconic und Kazuja
Ich kann deine Gedanken nachvollziehen.

Meine bisherigen Erfahrungen mit der asiatischen Arbeitsweise ist immer keep it short and simple. Die machen nichts, was nicht extra notwendig und gefordert ist. So Unterstützungskonstruktionen mit Abstandshülsen usw. würde man in Erwägung ziehen wenn der Kunde das will. Die sagen sich wahrscheinlich 1x Aluplatte für alles bitte, alles was Wasserführend ist aus Kupfer. "Fertig ist die Laube". Meiner Wahrnehmung nach wird häufig viel schneller gehandelt als alles vollständig beim ersten Mal zu durchdenken (--> Siehe Interaktionen bei Saugrobotern, wieviele "Generationen" gibt es da mittlerweile? Jedes Jahr eine neue ... ).

Alles weitere wäre Aufwand mit zusätzlichen Partnern, Konstrukteuren, der Einkaufsabteilung... Ach sie wollen 3 Mio Abstandshülsen? Wie sieht der Kontrakt aus? :-D
 
  • Gefällt mir
Reaktionen: Kazuja
Zurück
Oben