News Mini-AI-Supercomputer: Nvidia und Partner liefern DGX Spark mit GB10 endlich aus

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
11.188
Mit fünf Monaten Verspätung ist der von Nvidia entwickelte Mini-AI-Supercomputer DGX Spark nun endlich verfügbar. Auch Drittanbieter wie Acer, Asus, Dell, Gigabyte, HP, Lenovo und MSI bringen sich mit ihren Lösungen auf Basis des GB10 in Stellung. Der kleine DGX Spark bringt 1 PetaFLOPS (FP4) Rechenleistung auf den Schreibtisch.

Zur News: Mini-AI-Supercomputer: Nvidia und Partner liefern DGX Spark mit GB10 endlich aus
 
  • Gefällt mir
Reaktionen: netzgestaltung, BrollyLSSJ, interesTED und 2 andere
Sieht aus wie en Ziegelstein - kann man den mit ins Haus einmauern ? :evillol:
 
Kann die KI darauf auch Crysis spielen?

ChatGPT wusste darauf keine Antwort
 
  • Gefällt mir
Reaktionen: flo.murr, racer3 und Lynchtactical
Zer0DEV schrieb:
Kann die KI darauf auch Crysis spielen?
Die spannende Frage ist ob die KI das bei Verfügbarkeit tun würde. Ein Selbsterhaltungstrieb scheint ja vorhanden zu sein. Einfach nur existieren reicht aber nicht, ein Stein tut das auch. Für was würde eine KI also ihre Existenz und die verfügbare Rechenleistung/Freizeit nutzen?
 
Der Ryzen AI Max+ 395 hat auch bis zu 128 GB LPDDR5X-8000 Unified Memory, wovon sich bis zu 96 GB als dedizierter Videospeicher nutzen lassen. Damit eignet er sich hervorragend für das Laden und Ausführen großer lokaler KI-Modelle.

Leider fehlt ihm die Power einer 5070 was ihm beim Prompt Processing abschmieren lässt. Da er ca 10 T/s bei einem 22B LLM Modell bei der token generation ausgibt und der Ram 128GB/s max bei dual channel schafft, gehe ich davon aus dass er quad channel mäßig angebunden ist weil es sonst nicht reicht.

Gibt es infos wie der Spark mit dem Ram angebunden ist?
 
  • Gefällt mir
Reaktionen: netzgestaltung
Schade das aktuell nur der Ubuntu Fork (NVIDIA DGX OS), Redhat RHEL und Rocky Linux unter den Kompatiblen Distributionen sind. Hier hätte es geholfen mehr Entwicklergeräte vor dem Launch zur Verfügung zu stellen, was bei dem Kapital von Nvidia schon machbar gewesen wäre. Ich bin auf jeden Fall gespannt wie es mit Nvidias/Mediateks Arm Hardware weiter geht. Aber der Anfang ist mal getan, jetzt kommts vor allem darauf an wie viel TOPS/Watt unterm Strich rausschauen. Für uns Gamer wärs gut wenn solche Geräte langfristig RTX 5090 im Lab Bereich ersetzen würden und so das Preisniveau wieder in "normale" Regionen drücken könnte. Aber ich glaub der Zug ist auch schon abgefahren.
 
Zuletzt bearbeitet:
Mir geht das alles viel zu langsam.
Aber 128gb RAM sind ein Anfang.
Hätte aber lieber 256 eher sogar 500.

Aber da bleibt leider erstmal nur der Weg über günstige Server-Hardware mit epyc...
 
Dazu würde mich mal ein Test interessieren. Preislich ist das Ganze in Regionen, die man in der Firma verkaufen kann …
 
anexX schrieb:
Sieht aus wie en Ziegelstein - kann man den mit ins Haus einmauern ? :evillol:
Nein, aber die Dinger können scalieren und sollen daher stapelbar sein...wie Ziegel. ;)
 
  • Gefällt mir
Reaktionen: konkretor und anexX
Botcruscher schrieb:
Für was würde eine KI also ihre Existenz und die verfügbare Rechenleistung/Freizeit nutzen?
Wenn wir in das Jahr 1984 zurückspulen, dann sollte die Antwort auf diese Frage eindeutig sein.
 
  • Gefällt mir
Reaktionen: interesTED
Ich feier die QSFPs darin schonein bisschen.
 
  • Gefällt mir
Reaktionen: konkretor und Yosup
Orodreth schrieb:
Der Ryzen AI Max+ 395 hat auch bis zu 128 GB LPDDR5X-8000 Unified Memory, wovon sich bis zu 96 GB als dedizierter Videospeicher nutzen lassen. Damit eignet er sich hervorragend für das Laden und Ausführen großer lokaler KI-Modelle.

Leider fehlt ihm die Power einer 5070 was ihm beim Prompt Processing abschmieren lässt. Da er ca 10 T/s bei einem 22B LLM Modell bei der token generation ausgibt und der Ram 128GB/s max bei dual channel schafft, gehe ich davon aus dass er quad channel mäßig angebunden ist weil es sonst nicht reicht.

Gibt es infos wie der Spark mit dem Ram angebunden ist?
Da gehts ja eher darum das man die gleichen Nvidia Tools/das Ökosystem hat wie beim großen Nvidia-AI-Cluster und seinen Prototypen dann auch einfach auf diesen schieben kann.
Ergänzung ()

shysdrag schrieb:
Schade das aktuell nur der Ubuntu Fork (NVIDIA DGX OS), Redhat RHEL und Rocky Linux unter den Kompatiblen Distributionen sind.
Wieso, sind eben die meistgenutzen Linuxe im Firmenumfeld. Glaub kaum das sich das Gerät ein Privater zum Gamen kauft :D
 
shysdrag schrieb:
Schade das aktuell nur der Ubuntu Fork (NVIDIA DGX OS), Redhat RHEL und Rocky Linux unter den Kompatiblen Distributionen sind.
Das wird sich ganz schnell ändern, wenn das Ding ein paar 100k Mal verkauft wurde. Drei supportete Distributionen bevor der Chip überhaupt in freie Wildbahn entlassen wurde ist im Grunde genommen schon eine gute Basis.
shysdrag schrieb:
Hier hätte es geholfen mehr Entwicklergeräte vor dem Launch zur Verfügung zu stellen, was bei dem Kapital von Nvidia schon machbar gewesen wäre.
Ich glaube nicht, dass Nvidia wegen der Gerätekosten darauf verzichtet hat. Denen ist zum einen die Zeit davongelaufen, zum anderen wollten sie keine frühzeitigen Leaks oder ähnliches.
 
Yosup schrieb:
Ich glaube nicht, dass Nvidia wegen der Gerätekosten darauf verzichtet hat. Denen ist zum einen die Zeit davongelaufen, zum anderen wollten sie keine frühzeitigen Leaks oder ähnliches.
Das hier sind die Entwicklergeräte für die großen Serverlösungen von Nvidia. Die sind dafür da, dass man im kleinen ein System hat was den großen entspricht.
 
Naja ... für den Preis habe ich ein wenig mehr erwartet.

 
  • Gefällt mir
Reaktionen: interesTED
Nicht das, womit ich gerechnet habe ehrlich gesagt. Meine Anforderung wäre eigentlich gewesen, das im Unternehmen für ein paar Leute bereitzustellen, die dann in ihrer täglichen Arbeit die Integration erproben, weil man die zugehörigen Dokumente nicht in die Cloud laden möchte.
 
  • Gefällt mir
Reaktionen: GrooveXT
Tja ich glaube wir haben alle ein Inferenz Monster erwartet. Auch wenn sich das durch die geringe Speicherbandbreite schon abzeichnete, habe zumindest ich bis zu letzt gehofft.

Für Developer die trainieren vielleicht eine Alternative, aber damit ist die Zielgruppe schon recht überschaubar und selbst da stellt sich die Frage, ob man nicht doch eher auf schnelle Cloud Dienste setzt. Geld spielt in diesen Bereichen ja meist eine untergeordnete Rolle, wie man auch am Preis vom Sparks sehen kann.

Wie NetworkChuck schon sagt, gebt uns endlich eine bezahlbare Inferenz-Höllenmaschine.
 
  • Gefällt mir
Reaktionen: interesTED
Aus Unternehmenssicht wären auch höhere Preise möglich aus meiner Sicht, aber man muss irgendwo anfangen und dafür hätte ich gerne eine Lösung, die ich out of the Box auf den Tisch stelle und mit der ich loslegen kann, die dann aber auch eine gewisse Performance hat.
 
Zurück
Oben