Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNvidia DGX Spark im Test: Ein Blick auf den kleinsten KI-Supercomputer der Welt
Also das Wort Super-KI hat Keno bei C'T 3003 kürzlich im Vergleichstest mit seiner 4090 eindeutig widerlegt!
Die Mini-Box konnte nur in einem einzigen Szenario überzeugen, nur da, wo sie mit den 128GB mehr als genug Speicher für ein übergroßes KI-Modul hatte.
Ansonsten ist die Box sogar relativ lahmarschig, udn für das Geld entsprechend stark überteuert.
Vor allem, weil das Ding quasi nur dafür gebaut wird.
Jede Gamerkiste mit einer 4090 oder besser hat also theoretisch teilweise sogar mehr Power unterm Hintern, wenn man sich privat für das eine oder andere Ding interessiert.
So siehts halt aus, wenn Werbeversprechen auf Fakten treffen.
Zusätzlich muss diese Minikiste Gefahr von AMD's mächtiger AI-Komposition hinnehmen.
Da bin ich mal gespannt, wann da ein Test kommt, ob AMD da ein Preis-Leistungswunder im Ärmel hat.
Wahrscheinlich wird das aber auch seine Höhen und Tiefen haben.
Für den Preis ist das ASUS Ascernt GX10 für das im Artikel geteste Gaming einfach nur eines ... ungenügend, vor allen Dingen im Vergleich mit einem weit überlegenen, deutlich günstigeren RTX 4070/5070 Gaming-Notebook (dafür braucht es auch kein Razer Blade/Enthusiastenmarken-Aufpreis Notebook).
Entschuldige meine Ausdrucksweise, aber selten so einen BS gelesen. Fühlt sich wieder ein Hater auf den Schlips getreten oder was?
Das ist ein Arbeitsgerät und keine Spielekonsole, vielleicht mal den Artikel lesen? Der Spieletest ist nur ein lustiger Vergleich. Das Ding hat eine einzige Aufgabe, nämlich in der KI Entwicklung genutzt zu werden.
Und wenn Nvidia meint, Produktionskapazitäten umzuschichten, dann können die das machen, die sind nämlich ein gewinnorientiertes Unternehmen und theoretisch sogar den Investoren gegenüber zu diesem Schritt verpflichtet.
Du wirst auch weiterhin deine kleinen Gamerkarten bekommen, nur eben ein zwei Wochen auf die Lieferung warten müssen.
Aufgrund der gestiegen Kosten für RAM lohnen sich solch kleinen Ausbaustufen momentan auch nicht mehr, denn wenn eine 2000-3000 Euro 5090 mal eben 200 Euro teurer wird, juckt das keinen. Bei einer 5060 für 300 ist der Aufschrei groß, wenn die dann 400+ Euro kostet.
Dieser vorgespielte Gaming Sozialismus, in dem sich jeder alles leisten können muss und alles immer verfügbar sein muss, ist schon ein ziemliches irres Konstrukt. Ich bin schon ganz schön lange dabei, vom ersten PC für 4000 DM mit 16MB RAM eben bis heute. Da habe ich echt wenig Verständnis, für dieses ständige Geheul.
Wir leben noch immer in goldenen Technik Zeiten und der Überfluss ist kaum zu stoppen. Da tut doch so ein Fingerzeig, wie jetzt beim RAM auch mal gut, um wieder ein neues Normal zu finden. Sowohl bei den Entwicklern, mit immer aufgeblaseneren Produkten, als auch beim Verbraucher, der dazu mit immer fetterer Hardware beiträgt.
Ergänzung ()
BxBender schrieb:
Die Mini-Box konnte nur in einem einzigen Szenario überzeugen, nur da, wo sie mit den 128GB mehr als genug Speicher für ein übergroßes KI-Modul hatte.
Aber dass ist doch genau das Argument für so eine Kiste. Es geht nicht um das Tempo, es geht darum, dass es überhaupt geht.
Und dir ist schon bewusst, dass eine RTX 6000 mit 96GB RAM, die dann in etwa ähnliche Modelle und Szenarien nutzen kann mal eben 8000 Euro und mehr kostet. Und erneut 96GB sind nicht 128GB.
Was nutzt mir das schnellste und tollste System, wenn mein Anwendungsszenario darauf nicht lauffähig ist?
Die 3000 Euro sind ein Deal, für das was dir geboten wird, auch wenn einige hier dafür keine Verständnis haben. Umsonst verkaufen MSI Dell und Co ihrer Kisten nicht für dass eineinhalbfache und mehr.
Wow, welche Laus ist dir denn heute über die Leber gelaufen? Selten so viel BS von dir gelesen.
Es ist ein Dev Kit. Und für 3K ist es da gar nicht mal schlecht. Du musst wissen was du damit machts
Ist bei der Strix-Halo-Box genauso. Das Dev Kit von AMD wird da nicht günstiger, es kann einiges gut, anderes nicht. Auch keine eierlegende Wollmilchsau für 3K.
Und bitte fang nicht mit MLID als irgendeine Referenz an, bitte bitte bitte. Ich warte da immer noch auf die +40% mehr ST-Leistung sowohl von Arrow Lake als nun auch Panther Lake usw.
Also wenn der Typ eines nicht kann, dann ist es mit irgendwelchen Prozenten richtig zu liegen .. äh zu raten. Die liegen quasi immer die 0 dahinter falsch .. also aus 40 werden 4 usw usw^^
Seine "besten" Zeiten sind halt eh längst vorbei, keine ernstzunehmende Seite nimmt den mehr als Referenz für irgendwas .. warum nur frag ich mich^^
Und ich weiß immer noch nicht, was genau man mit LLMs macht, also produktiv. Klar ich kann auf meiner 5090 auch ein paar lustige LLMs über LMStudio laden und dem ding irgendwas fragen oder mir ein paar codeschnipsel für ein Skript ausgeben lassen... Aber das kann es doch nicht sein, was macht man also mit soetwas wirklich?
Ich dachte auch erst das sei interessant bis ich gemerkt hab, dass das eine reine Dev-Büchse ist zum Pre-Testing obs auch aufm Cluster läuft was auch immer man deployen möchte. Die eigentliche Leistung ist kompletter Abfall und unbrauchbar ggü. selbst regulären Consumer GPUs solange der eigene Zweck ins VRAM passt.
Das ist wirklich auch der EINZIGE Case der für das Ding spricht und selbst da bin ich nicht sicher ob ich nicht lieber das Geld in die Hand nehmen würde um eine RTX6000 Blackwell zu holen wenns wirklich Not tut und nicht nur Spielzeug ist.
Im Artikel fehlt bei den Benchmarkdaten die TDP der Nvidia DGX Spark (240 W als Randnotiz im Text zu entnehmen, wobei 140 W auf dem Grafikchip anfallen). Außerdem gibt es für die Leistungsaufnahme kein Vergleichswert, da würden mich die Daten zu dem AMD Ryzen AI Max+ 395 interessieren.
Danke für den Test,
Mir fehlen leider weitere AI tests. Z.b, Text2Image oder Text2Video - genau hier sollte der viele VRAM helfen - für höhere Auflösungen und längere Videos. Das wäre wirklich interessant wie weit man hier kommt.
Bin gespannt wann die AI blase platzt, angeblich hat Bill Gates das groß ihrer Microsoft Aktien und Warren Bufet sein Groß an Apple Aktien abgestoßen.
Hab da auch ein interessantes Video gesehen das Microsoft NV Open Ai und die ganzen AI Firmen sich gegenseitig das Kapital zuschieben und es im ende auf ein Potemkinsches Dorf hinausläuft.
Wird auf jeden Fall lustig, wenn OpenAI weiterhin so tiefrote Zahlen schreibt. Deren Businessmodell ist ein einziges Himmelfahrtskommando und online kommen immer mehr Leute drauf, dass das nichts Nachhaltiges werden kann und ohne weitere, immer größer werdende Partner-Investmentspritzen der Laden über Nacht zumachen kann. Mit jedem Euro Einnahme haben die ca. 7,77€ Infra-Ausgabe und dieser Rechensatz dürfte jährlich sich exponentiell verschlechtern. Die Blase ist jedenfalls kräftig am pumpen....
Und wer diese "early adopter"-Preise noch verteidigt, der hat, excuse my language, den Anschluss zur Realität verloren. Natürlich ist das maßlos überteuert...
Warum sollte es größer sein und mehr Platz wegnehmen, wenn es leise auch so funktioniert? Und du kannst das Gerät gebrauchen, wenn du wie im Test z.B. ein 70B Model laden möchtest. Da reicht nämlich keine Nvidia GPU mehr.
@SoldierShredder
Ist halt alles ein "race up the hill" aktuell. Wer in welcher Reihenfolge in welchem Zustand über den Berg kommt und überhaupt? Aktuell offen.
Ich finde es klasse, dass ihr euch dem Thema annehmt, auch wenn ich die Frage "wie geeignet ist das Ding für Spiele" eher als Rückfall in alte Gewohnheiten betrachte. Aus meiner Sicht wäre es ein ein großes Qualitätsmerkmal für CB, systematische und fundierte (schriftliche!) Tests zu KI-Systemen zu lesen, die keine Effekthascherei bei YouTube sind, denn die Formate dort finde ich durch die Bank weg unglaubwürdig und nervig.