News Nvidia DGX Spark 128 GB LPDDR5X: Der Preis der Founders Edition steigt um 620 Euro

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
17.642
  • Gefällt mir
Reaktionen: aid0nex
Die OEMs sind erheblich günstiger. Die nachfrage nach der Founders Edition ist erschreckend gering, bis nicht vorhanden.
 
Ja, die OEM Modelle kriegst teilweise nachgeworfen, gerade Kundenrückläufer. Haben fürs Lab auch eine Thinkstation PGX unter 2500 € bekommen, die Nachfrage im "Prosumer Segment" scheint ja da zu sein, aber auch vieles dann wieder zurück zu gehen. Das ist wohl das einzige Nvidia "AI" Produkt das in großen Mengen verfügbar ist. Der Arm Push war vielleicht 1-2 Jahre zu früh, x86 Hardware mit den Specs würden die Kunden Nvidia mit Aufpreisen aus den Händen reissen.
 
Ich stell jetzt mal die blöde (und wahrscheinlich doch gar nicht so blöde) Frage:
Wofür braucht man das?

Beworben wird das Ding als Entwickler-Box mit vorinstallierter Software.
Die kann nun was gegenüber nem schnöden PC mit Grafikkarte?
Ist nochmal näher an der End-Hardware, auf der die entwickelte Software dann eingesetzt wird?
 
  • Gefällt mir
Reaktionen: Abrexxes, aid0nex, fox40phil und 2 andere
Katzenjoghurt schrieb:
Die kann nun was gegenüber nem schnöden PC mit Grafikkarte?
Du hast einfach 128gb 256bit angebundenen 8000MHz RAM auf den die GPU direkt zugreifen kann. Das ist für alles was mit ML und AI zu tun hat Gold wert weil die Speicherbandbreite durch den PCIe x16 bei GPUs auf 64gb/s gedeckelt ist. Das sind etwa ein viertel der Bandbreite.
 
  • Gefällt mir
Reaktionen: fox40phil und Jan
Ich habe den Lenovo Ableger (ThinkStation PGX) auf der Arbeit. Im Vergleich zum AMD Ryzen AI 9 MAX 395 ist es sehr, sehr schnell. Freue mich schon auf die Notebook-Ableger, wenn die auch mit 128GB (V)RAM kommen.

Der steigende Preis wurde aber auch schon von Lenovo angeteasert. Mal gespannt, wie es sich auf N1X Systeme auswirken wird.
 
  • Gefällt mir
Reaktionen: fox40phil und Jan
tomgit schrieb:
Ich habe den Lenovo Ableger (ThinkStation PGX) auf der Arbeit. Im Vergleich zum AMD Ryzen AI 9 MAX 395 ist es sehr, sehr schnell.
Kannst du das ungefähr zahlenmäßig einordnen? Klar ist die 5070 im DGX schneller als die APU aber wie viel ist irgendwie schwer zu bezifferen weil die 5070 ja kein Wildtyp ist sondern elektrisch und thermisch ganz anders gedeckelt ist.
 
  • Gefällt mir
Reaktionen: madmax2010
@Jan
Ist statt GDDR5X nicht eigentlich LPDDR5X gemeint? Im Titelbild steht ja auch "Unified Low Power DDR5X".
 
  • Gefällt mir
Reaktionen: aid0nex, Alphanerd und Jan
Wenn es einen schnelleren GMKtec EVO-X2 AMD Ryzen™ AI Max+ 395 Mini PC für 2500€ mit 128GB RAM gibt, wird die breite Masse keinen Nvidia DGX Spark kaufen wollen. Die meisten Heimanwender sind nicht auf CUDA angewiesen, die Auswahl an LLMs ist groß.
 
Jan schrieb:
GDDR5X ist ja schon etwas älter (GTX 1000er Reihe), aber wenigstens ist es konsequent falsch im gesamten Artikel inkl. Link :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex, Alphanerd und Jan
Bright0001 schrieb:
@blubberbirne Quelle? Oder ist das eine Vermutung?
Quelle +1.
Beobachtung auf der Arbeit. OEM Hardware handelt man aber auch 30-60% unter den Listenpreis. Niemand zahlt Listenpreis.
- @blubberbirne und 1 weiterer Typ im Internet

blubberbirne schrieb:
Die nachfrage nach der Founders Edition ist erschreckend gering, bis nicht vorhanden.
Mir fehlt da auch so ein bisschen der Usecase. Inferenz geht billiger und tbh ist ein Mac Studio mit M* Ultra und teils der M4 Pro Mac mini schlicht kosteneffizienter.

Zum training ist es niedlich und skaliert super, aber zu dem preis kann man einige Spotinstanzen mieten
 
Ned Flanders schrieb:
Kannst du das ungefähr zahlenmäßig einordnen?
Ich kann mal schauen, dass ich die Tage zumindest ein Projekt auf beiden Systemen durchlaufen lasse, aber egal in welchem Bereich es ist, der GB10 Chip ist einfach schneller: Laden von Modellen, Verständnis von Prompt, Generation von Token.

aLanaMiau schrieb:
Die meisten Heimanwender sind nicht auf CUDA angewiesen, die Auswahl an LLMs ist groß.
Kann ich so definitiv nicht unterschreiben. Nicht nur sind die LLMs auf den AMD Chips merklich langsamer, auch gibt es weitere Bereiche (Bild-/Videogenerierung) welche auf AMD Chips erst seit ROCm 7 einigermaßen zuverlässig funktionieren - und selbst da ist es ein Gemurkse, es zum Laufen zu bekommen.

So wenig wie ich Nvidia mag, aber sie sind AMD nicht nur bei der Forschung sondern auch bei der Verwendbarkeit deutlich voraus. Bei meinem ZBook Ultra G1A kann ich ohne DDU nicht den variablen VRAM aktivieren, da der PRO Treiber von AMD das nicht zulässt - und AMDs eigenes Treiber-Purge-Tool hat mein Notebook in ein Bootloop gesendet. Unter Linux darf man zusätzliche Pages per grub-Parameter einrichten, letzeres ist in Nvidias Ubuntu-Abklatsch DGX OS bereits eingerichtet.
Selbst Apple ist was ML Inferenz anbelangt deutlich angenehmer zu verwenden als alles, was AMD liefert. Höchstens mit der Ausnahme des Adrenaline KI Toolkits.
 
  • Gefällt mir
Reaktionen: fox40phil und madmax2010
Gemini hat gemeint bei den Parametern des Taalas HC1 Chips und der älteren Fertigungstechnik könnte die Produktion 200-500$ Kosten.
Als System mit USB Stecker dann vielleicht 3000-5000?

Damit sind dann aber ganz andere Anwendungen möglich.

Die Zeiten wo Nvidias mit 75% Marge verkaufen konnte gegen dieses Jahr vermutlich zu Ende.

LLM im Silizium wird der Weg für die Interferenz. Und mit Lora ist ja auch schon das Fine-tuning ohne Rechenzentren möglich.
 
Zurück
Oben