GTC 2026

Nvidia DGX Station: GB300 mit 288 GB HBM3e für den Desktop ist jetzt bestellbar

Nicolas La Rocco
16 Kommentare
Nvidia DGX Station: GB300 mit 288 GB HBM3e für den Desktop ist jetzt bestellbar

Ein Jahr nach der Ankündigung der DGX Station lassen sich die von Nvidia und Partnern entwickelten AI-Workstations mit GB300 für den Desktop in Kürze vorbestellen. Entwickler erhalten damit den großen Datacenter-Chip GB300 mit 288 GB HBM3e – nur eben für den Schreibtisch. Die Auslieferung wird aber noch einige Monate brauchen.

Wem ein DGX Spark (Test) für die lokale KI-Entwicklung nicht genügend Rechenleistung zur Verfügung stellt, kann sich mittelfristig auch eine DGX Station auf den Schreibtisch stellen. Anstelle des „kleinen“ GB10 erhalten Käufer dann einen GB300, den großen Grace-Blackwell-Chip, wie er auch in den Datacenter-Racks von Nvidia zum Einsatz kommt. Dort bringt ein Server-Rack gleich 72 GPUs mit 36 CPUs zusammen.

GB300 Grace Blackwell Ultra Desktop Superchip,

Auf dem Schreibtisch geht zwar alles eine Nummer kleiner vonstatten, die technischen Daten sind dennoch beachtlich. Die DGX Station setzt auf den GB300 Grace Blackwell Ultra Desktop Superchip, der ein Blackwell-Ultra-Package mit zwei GPU-Dies und 288 GB HBM3e über einen 900 GB/s schnellen NVLink-C2C-Interconnect mit einer Grace-CPU verbindet, die 72 Neoverse-V2-Kerne von Arm und 496 GB LPDDR5X mit 396 GB/s bietet.

Nvidia gibt die AI-Leistung des Systems mit 20 PetaFLOPS an, wobei es sich dabei um 20 PetaFLOPS für FP4 mit Sparsity-Beschleunigung handelt, nachdem Blackwell Ultra im Data Center auf 15 PetaFLOPS für FP4 Dense und höhere 30 PetaFLOPS mit FP4 Sparsity kommt. Zum Vergleich: GB10 im kleineren DGX Spark bietet eine GPU mit 1 PetaFLOPS FP4-Leistung (mit Sparsity) – also nur 5 Prozent der Leistung.

DGX Station Board (r.)
DGX Station Board (r.) (Bild: Nvidia)

DGX Station als On-Demand-Node nutzen

KI-Entwickler erhalten somit eine Workstation mit 784 GB DRAM verteilt über den HBM der GPU und den SOCAMM-LPDDR5X der CPU. Sprachmodelle mit bis zu einer Billion Parametern sollen sich lokal ausführen lassen. Die Systeme lassen sich als eigener „AI Supercomputer“ oder aber remote als On-Demand-Node mit verteilter Rechenleistung für ein ganzes Team nutzen. Weil die Architektur dieselbe ist wie im Datacenter, sollen sich Projekte nahtlos von der lokalen Umgebung ins Rechenzentrum portieren lassen.

Developers can run and fine-tune state-of-the-art models on DGX Station — including OpenAI [gpt-oss-120b], Google Gemma 3, Qwen3, Kimi K2.5, Mistral Large 3, DeepSeek V3.2 and NVIDIA Nemotron — and tap into a wide variety of familiar tools and platforms from 1x, Aible AI, Anaconda, Docker, Red Hat, JetBrains, Docker, Inc., Ollama, llama.cpp, ComfyUI, LM Studio, Llm.c, Weights & Biases (acquired by CoreWeave), Odyssey, Roboflow, VLLM, SGLang, Unsloth, Learning Machine, Quali, Lightning AI and more.

Nvidia über die DGX Station

Bis zu 1.600 Watt kann eine DGX Station ziehen

Die einzige Voraussetzung für den Arbeitsplatz? US-Kunden empfiehlt Nvidia einen „20A circuit“, also eine Steckdose an einem Stromkreis mit 20A/120V, demnach bis zu 2.400 Watt. Üblich sind in den USA nämlich 15A/120V für maximal 1.800 Watt. Nvidia gibt den Leistungsbedarf einer DGX Station offiziell mit bis zu 1.600 Watt an.

Auslieferung in den kommenden Monaten

Während Nvidia bei dem DGX Spark auch ein eigenes Modell in Gold mit besonders viel Storage anbietet und Acer, Asus, Dell, Gigabyte, HP, Lenovo und MSI alternative, günstigere Designs mit demselben Board zur Auswahl stellen, hält sich Nvidia bei der DGX Station zurück und überlässt das Feld Asus, Dell, Gigabyte, MSI und Supermicro. Später im Jahr soll auch HP mit einer DGX Station folgen. Weil Nvidia nicht selbst mit einem System involviert ist, fehlen derzeit auch noch Preise. Bei den Partnern dürften Interessenten aber in jedem Fall fünfstellig tief ins Portemonnaie greifen müssen.

Apropos später im Jahr: Für eine DGX Station muss man weiterhin Geduld zeigen. Vorbestellungen seien laut Nvidia zwar ab dem 16. März möglich, doch die Auslieferung soll ohne konkreten Termin erst in den „kommenden Monaten“ erfolgen.

ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.

Nvidia GTC 2026 (16.–19. März 2026): Alle 7 News auf der Themenseite!
  • Nvidia DGX Station: GB300 mit 288 GB HBM3e für den Desktop ist jetzt bestellbar
  • CPUs bleiben wichtig: Nvidia bietet reines Vera-CPU-Rack mit 256 Prozessoren an
  • Nicht mehr nur GPUs: Nvidia Groq 3 LPU erhöht Inference-Durchsatz massiv
  • +4 weitere News