News Nvidia zum OCP: Vera Rubin NVL144 MGX als (halb-)offene Partnerplattform

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.568
Zum OCP Global Summit bringt Nvidia die aktualisierte MGX-Plattform mit, die künftig auf Vera-Rubin-Trays und bald auch Kyber-Racks setzt. MGX bedeutet, dass diese Lösungen zumindest etwas offen gestaltet sind, was Partnern ermöglicht, eigene Lösungen für Trays, Blades und mehr zu entwickeln, die so auch flotter im Markt sind.

Zur News: Nvidia zum OCP: Vera Rubin NVL144 MGX als (halb-)offene Partnerplattform
 
  • Gefällt mir
Reaktionen: schneeland, aid0nex, PietVanOwl und 2 andere
Beim Thema Energiezufuhr hat Nvidia im Frühjahr bereits die 800-VDC-Architektur ins Leben gerufen. Mit Industriepartnern wird gemeinsam ein effizienteres Design angestrebt, welches Umwandlungsverluste eindämmen soll und darüber hinaus viel besser skalierbar ist. Dafür wird 800-V-Hochspannungsgleichstrom (HVDC, high-voltage direct current) genutzt, der eine Stromumwandlung direkt an der GPU innerhalb des Servers ermöglicht.

Derzeit ist die Stromversorgung in Racks und Rechenzentren zudem dezentralisiert, GPUs werden von einer großen Anzahl von Netzteilen mit Strom versorgt. Die zukünftige Systemarchitektur wird zentralisiert sein und den begrenzten Platz in einem Server-Rack bestmöglich nutzen. Durch den Wegfall von Netzteilen in Racks will Nvidia die Wartungskosten um bis zu 70 Prozent drücken – Netzteile gelten als anfällig und müssen öfter getauscht werden.

Allein dieser Aufbau der gesamten Infrastruktur ist ein jahrelanges Unterfangen, welches mit Kyber die ersten Früchte trägt. Die frühe Offenlegung für OCP-Standards soll auch hier helfen, Partner für die Systeme fit zu machen.
Generell sehr begrüßenswert.
Der einzige Haken, den ich dabei sehe, ist die Entkoppelung von Profi- und Consumernetzteiltechnik. Aktuell kann da zumindest noch ein Bisschen was rüberschwappen, dann gar nichts mehr.
 
  • Gefällt mir
Reaktionen: madmax2010 und latexdoll
@Jan Synergieeffekte wohin man schaut, nur jetzt halt andere ^^
 
  • Gefällt mir
Reaktionen: schneeland, latexdoll, CDLABSRadonP... und eine weitere Person
Santa Clause schrieb:
Technisch beindruckend, fragt sich nur ob nicht doch die Blase platzt.
noch nicht so schnell, nein.

Allerdings kann es sein, dass das Wachstum bald mal deutlich langsamer wird, im Moment kaufen die Firmen oft im Jahrestakt Hardware....
 
Zuletzt bearbeitet:
Jan schrieb:
Dafür teilen sich Server jetzt die Infrastruktur mit HPC-Auto-Ladern. ^^
Wenn Huang sein Auto läd, dann ruckelt es kurz bei manchen Geforce-Now-Nutzern...
...läuft allerdings nicht auf Serverkarten, sondern auf dem Profiableger der Consumer-Topmodelle.
...dann muss ChatGPT länger nachdenken. Aber das läuft, im Gegensatz zu Geforce Now, ja nicht auf Rechnern, die Nvidia gehören. Und außerdem Training vs. Inferenzing...
 
  • Gefällt mir
Reaktionen: Pestplatte
Technische Daten mit dem Open Compute Project (OCP) zu teilen macht Nvidia nicht uneigennützig.
Nvidia und "Open" in einem Satz zu lesen.... :lol:
 
Santa Clause schrieb:
Technisch beindruckend
Aber auch "gemogelt". Nvidia zählt die Anzahl der Dies, nicht die der Packages. Auch NVL576 hat "nur" 144 GPU Packages.

AMD will wohl auf 256 Packages im Rack kommen, zählt auch dank deutlich kleinerer Chiplets nur diese.
 
Eller schrieb:
Nvidia und "Open" in einem Satz zu lesen.... :lol:
Was meinst? schau mal auf deren GitHub Seite...
Ergänzung ()

BAR86 schrieb:
noch nicht so schnell, nein.

Allerdings kann es sein, dass das Wachstum bald mal deutlich langsamer wird, im Moment kaufen die Firmen oft im Jahrestakt Hardware....
Die Frage ist nur wie lange openai und co noch Geld bekommen, 1 Mrd Verlust im Monat ist halt auch nicht ohne.
Man wird immer mehr Compute brauchen weil die Modelle immer komplexer werden und man laut Marketing am besten alles mit KI machen soll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stramma
TheInvisible schrieb:
Die Frage ist nur wie lange openai und co noch Geld bekommen, 1 Mrd Verlust im Monat ist halt auch nicht ohne.
Man wird immer mehr Compute brauchen weil die Modelle immer komplexer werden und man laut Marketing am besten alles mit KI machen soll.
Also im KI Rennen kann sich grad keine der großen Nationen leisten so richtig zurückzufallen, denn wenn es richtig gemacht ist, ist das dann der Geldbringer der nächsten Jahrzehnte.
Von daher ist 1Mrd pro Monat gar nichts eigentlich.
Wenn man bedenkt, dass so mancher Krieg 1 Mrd pro Tag kostet
 
Zurück
Oben