News NVMe over Fabrics: Kioxias EM6-SSD wird direkt ans Netzwerk angeschlossen

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.909
  • Gefällt mir
Reaktionen: PietVanOwl, BrollyLSSJ, boxte30:Goas und 3 andere
1x 25 GBit/s sind theoretisch ohne Overhead 3,125 GByte/s
2x 25 GBit/s sind theoretisch ohne Overhead 6,250 GByte/s

Entspricht ungefähr also dem, was eine PCIe SSD über Gen3 x4 bzw. Gen 4 x4 Anbindung leisten kann. Das heißt, der Nachfolger müsste einen 1x 100 GBit/s Anschluss besitzen um ungefähr PCIe Gen 5 x4 mit 13,5 GByte/s entsprechen zu können.
Das wäre dann wohl der Beginn, dass die Festplatten (Nachdem sie mit Hyper Converged aus den SANs direkt in die Server-Racks gewandert sind und als vSAN verbunden wurden) wieder aus den Server raus und in eigene Kabinette wandern. Natürlich ohne die ganze zusätzliche Hardware die ein dediziertes SAN so mitbringt, quasi als dediziertes vSAN... Nennt man das dann dediziertes Hyper Converging? :freaky: :D
 
  • Gefällt mir
Reaktionen: ekin06 und Metalyzed
Fritzler schrieb:
Wie stellt man denn da jetzt die IP ein?
USB Anschluss mit Konsole?

Oder tippt da wer die MAC ab für DHCP only?
Das wird mit nen eindeutigen NQN (NVMe Qualified Name) über Discovery laufen schätze ich mal, da wird keine IP eingestellt. Es wird nur ein Discovery Controller abgefragt.
 
  • Gefällt mir
Reaktionen: Roesi, Yesman9277 und Fritzler
"Ohne Umweg über Mainboard und CPU soll der Datentransfer mit niedriger Latenz erfolgen."

Klingt gut, Tests bitte.

Andererseits..... Das was die meisten User "in schnell" haben müssen ist fix eingebaut.
 
Das ist nichts für den normalo für den privaten PC. Das ist Enterprise Technik im Rechenzentrum
 
  • Gefällt mir
Reaktionen: Kenshin_01
EDIT: Sorry das folgende ist im falschen Thread gelandet: (kann weg)

Und die haben Lanes für Festplatten zu verschenken?

Wirf mal eine Blick auf die Tabelle hier:

https://en.wikipedia.org/wiki/PCI_Express

Selbst eine einzige Lane ist Verschwendung für eine Festplatte.
Bei SSDs kann das anders aussehen, keine Frage.
 
Zuletzt bearbeitet:
- habe mich verlesen, hier stand mist, sry -
 
Neu ist das nicht. NetApp nutzt bei den Diskshelves vom NS-Typ auch 100 Gbit LAN statt SAS (DS-Typ) zur Anbindung an den Controller. In einem Shelf sind dann ebenfalls bis zu 24 SSD.
Was hier immer vergessen wird. Es geht bei SSD nicht unbedingt um die Übertragungsraten, da erreicht man auch mit HDDs sehr gute Werte, es geht um die IOPS bei geringer Latenz. Bspw. bis zu 11.400.000 IOPS, 11us Latenz. Da sind die 300 GB/s eher nebensächlich. Der andere Grund ist die Speicherdichte. 24x7,6
TB mit (NVME) SSD auf 2HE sind eben besser als 24x1,8 TB mit SAS.
 
  • Gefällt mir
Reaktionen: nobbivm, Fritzler, konkretor und eine weitere Person
konkretor schrieb:
Das ist nichts für den normalo für den privaten PC. Das ist Enterprise Technik im Rechenzentrum

Wer hat denn was anderes behauptet?
 
Mittels GDS können Daten zwischen GPU-basierten Beschleunigern (Nvidia A100) und einer NVMe-oF-SSD direkt und ohne Umweg über die CPU ausgetauscht werden, was die oben genannten Anwendungen beschleunige.
Löst das das gleiche Problem wie CLX CXL? Nur, dass NVMe-oF auch zwischen Servern funktioniert, aber dann doch wieder über Ethernet in die Maschine reinkommt und dort die PCIe-Lanes braucht...
 
Zuletzt bearbeitet:
IBISXI schrieb:
EDIT: Sorry das folgende ist im falschen Thread gelandet: (kann weg)

Und die haben Lanes für Festplatten zu verschenken?

Wirf mal eine Blick auf die Tabelle hier:

https://en.wikipedia.org/wiki/PCI_Express

Selbst eine einzige Lane ist Verschwendung für eine Festplatte.
Bei SSDs kann das anders aussehen, keine Frage.
Wieso Verschwendung? Da wird eine lane ganz normal mit einem Chipsatz aufgeteilt und gut. Macht doch jede Hauptplatine so. Du sparst Dir halt noch zusätzliche Wandler, die Dir irgendwie mit Fehlern aufm Sack gehen könnten.
 
Dr. MaRV schrieb:
Neu ist das nicht. NetApp nutzt bei den Diskshelves vom NS-Typ auch 100 Gbit LAN statt SAS (DS-Typ) zur Anbindung an den Controller. In einem Shelf sind dann ebenfalls bis zu 24 SSD.
Was hier immer vergessen wird. Es geht bei SSD nicht unbedingt um die Übertragungsraten, da erreicht man auch mit HDDs sehr gute Werte, es geht um die IOPS bei geringer Latenz. Bspw. bis zu 11.400.000 IOPS, 11us Latenz. Da sind die 300 GB/s eher nebensächlich. Der andere Grund ist die Speicherdichte. 24x7,6
TB mit (NVME) SSD auf 2HE sind eben besser als 24x1,8 TB mit SAS.
Habe vor paar Jahren bei einer Schulung eine Demo von NVMe-OF gesehen, da war das noch nicht freigegeben.
Man konnte schön sehen, wie die Performance nur durch den Wechsel des Protokolls von FC zu NVMe-OF ein guten Stück gestiegen ist, feine Sache 👍
 
Zurück
Oben