News Inference Prefill: Nvidia will mit Feynman auf CPX-Chip zurückkommen

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.870
Schon zur GTC-Keynote am Montag vermisste die ComputerBase-Redaktion den Rubin-CPX-Chip. Von Ian Buck, VP & General Manager, Hyperscale und HPC bei Nvidia, erhielt die Redaktion nun eine Antwort, warum er denn nicht mehr auf der Roadmap zu sehen war. Demnach will Nvidia mit Feynman statt Rubin auf die CPX-Lösung zurückkommen.

Zur News: Inference Prefill: Nvidia will mit Feynman auf CPX-Chip zurückkommen
 
  • Gefällt mir
Reaktionen: aid0nex und the_IT_Guy
Volker schrieb:
... setzt Nvidia nun als auf Groqs Language Processing Unit (LPU). Diese nutzt eine deterministische Architektur ohne Caches, Branch-Prediction oder dynamisches Scheduling... [...] Für sehr kurze Zugriffszeiten und eine hohe Bandbreite sorgt dabei auch ein 500 MB großer On-Chip-SRAM.

Also Cache besteht ja normalerweise aus SRAM auf dem Chip. Aber ein "On-Chip-SRAM", also SRAM auf dem Chip ist nun doch keine Cache? Was macht normalerweise Cache? Cache soll die Zugriffszeiten reduzieren. Was macht der On-Chip-SRAM? " Für sehr kurze Zugriffszeiten sorgen." Klingt alles nach Cache, soll aber kein Cache sein. Wie soll man das verstehen?
 
  • Gefällt mir
Reaktionen: Tzk
Über die Formulierung bin ich auch gestolpert. Ich kann es mir so erklären, dass es keine klassischen L1 und L2 Caches gibt, sondern nur ein großer “Last Level” Cache vorhanden ist. Wobei Last Level dort dann gleichzeitig first Level ist.
 
  • Gefällt mir
Reaktionen: Convert
Zurück
Oben