News Sapphire × Ryzen AI Max+ 395: Zusammenschaltbare Mini-PCs mit Strix Halo für riesige LLMs

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.841
  • Gefällt mir
Reaktionen: Mcr-King, Xood, eastcoast_pete und eine weitere Person
Frage mich, wie das mit Daisy Chain funktionieren soll, müssen die Geräte sich dann ja die Bandbreite irgendwo teilen. Je nachdem wie viele man da verbinden will, wird das ja zunehmend problematischer.
Das per Ethernet? Selbst wenn zwei Lan-Anschlüsse verbaut werden, dann können auch nur der erste und der letzte mit dem Netzwerk verbunden werden. Für die da zwischen heißt es dann wieder Bandbreite teilen. Klingt für mich jedenfalls nicht so sonderlich sinnig. Bei Zwei ist es ja kein Problem bei drei mag es noch relativ gut funktionieren aber je mehr es werden...
 
  • Gefällt mir
Reaktionen: JanMH
Da hätte Marketing und Ingenieure aber mal besser zusammenarbeiten müssen.
Ein langweiliger USB oder LAN-Anschluss, das gab es schonmal cooler 😉
1773210945914.png


Trotzdem interessante Idee und sicher auch so bis ~5 Geräten praktikabel umsetzbar mit 2x10Gbit-LAN. Danach kauft die Zielgruppe eh Systeme in Richtung Server.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und eastcoast_pete
Wie siehts denn da mit Latenzen aus wenn die zusammengeschaltet arbeiten ?
 
  • Gefällt mir
Reaktionen: Weyoun und eastcoast_pete
Haben die Sapphire Strix Halos denn Thunderbolt 5 oder (und ?*) die Möglichkeit, über eine M2 Schnittstelle einen OcuLink Adapter anzuschließen? Mit entweder TB5 oder OcuLink käme man schon etwas näher an den schnellen Verbund ran, den man für KI schon gerne hätte.
* Wenn beides möglich ist, könnte man damit dann zumindest theoretisch auch 3 oder mehr von den schnellen Kisten zusammen schalten.
 
  • Gefällt mir
Reaktionen: the_IT_Guy
@Redaktion - Inwiefern ist die Anzahl USB-C Anschlüsse ein Problem? Genau dafür gibt es doch schon immer USB-C Hubs?
Ohne näherer Erläuterung wirkt die Aussage damit sehr "fraglich".
 
Gargamehl schrieb:
Genau dafür gibt es doch schon immer USB-C Hubs?
Ohne näherer Erläuterung wirkt die Aussage damit sehr "fraglich".
...weil das kein Daisy Chaining ist?

Die Frage ist eher, warum man keine Standardlösungen dafür einsetzt, etwa über (Q)SFP NICs, wie es Nvidia mit dem Spark auch macht.
 
Wohin führt das * , welche jeweils nach beliebig (beliebig*) steht? Ich checks nicht ganz.

Edit: ah, jetzt ist ein drittes * da und damit ist dann auch alles klar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 0x8100
Das Problem dürften wohl die Kommunikationskosten über Netzwerk und USB im Vergleich zur geringeren Bandbreite sein. Ähnliches wurde ja auch schon mit Mac Studios und Exo, also bereits optimierten Protokollen, versucht, ging aber selbst mit weniger Overhead und TB5 Bandbreite mit massiven Performance Tradeoff einher. Beim DGX Spark funktionierts ja auch nur weil der komplette Layer (Hardware, Netzwerk, Software..) auf einheitlichen daten zentrischen Nvdia Stack zusammen arbeiten; Nvlink / Infiniband / GPU Direct Memory usw.
 
Zuletzt bearbeitet:
Wenn die besseres Netzwerk einbauen wollen für die Verbindung - werden die dann mit dem DGX Spark und dessen 100 Gbit gleich ziehen?
 
Also wenn ich bedenke, dass die Rechenleistung meiner 4070 Ti bei Stable Diffusion-Modellen um etwa das 10 bis 15-fache abnimmt, wenn der VRAM mal voll ist und dann über PCIe 4.0 x16 auf den RAM zugegriffen werden muss, würden mich die technischen Details interessieren, wie man diesen Bandbreitenverlust bei der Kommunikation zwischen mehreren PCs kompensieren will. Das Einsatzgebiet dürfte sehr eingeschränkt sein oder einfach darauf abzielen, dass beide PCs getrennte Aufgaben übernehmen und diese dann irgendwie zusammenführen. Vermutlich mehr Marketing als realer Nutzen, aber lassen wir uns überraschen. Bin auf unabhängige Tests gespannt.
 
Was juckt mich der ganze A.I. Krempel, aber Sapphire Mini-PC mit Strix Halo = lecker😊.
Bin gespannt was Sapphire im Mini-PC Bereich und an der Mainboard Front noch so bringt die nächsten Monate.
 
  • Gefällt mir
Reaktionen: netzgestaltung
Damit nicht sinnlos Rechenleistung des Clients verschwendet wird, benötigt man eigentlich mindestens Thunderbolt 5 mit mit 80 GBit/s synchron oder 120 / 40 GBit/s asynchron (bei Master -Slave muss nicht zwingend in beide Richtungen die selbe Geschwindigkeit vorherrschen). Oder aber schnelles LAN mit mehr als 100 GBit/s (sogenanntes "Terabit-Ethernet" => Glasfaser).
 
Zurück
Oben