News Western Digital: NVMe-oF-Speicherplattform für 13 Millionen IOPS

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.924
  • Gefällt mir
Reaktionen: Grimey, Pry_T800 und Transistor 22
Hoffentlich ohne SMR. :D
Die Leistung beeindruckt.
 
  • Gefällt mir
Reaktionen: ColonelP4nic, Pry_T800, Transistor 22 und 5 andere
Rockt mich jetzt nicht so. Da ist so ein IBM FlashSystem 9200R mit NVMe Flash-Core-Modulen samt Hardware-Compression schon noch irgendwie schicker. :-/
 
Unter 'platform' verstehe ich eine Platine mit verschiedenen Steckplätzen und Anschlüssen für eine große Auswahl an Geräten und Bauteilen (wie beim PC :p ).

Das OpenFlex Data24 ist für meine Begriffe in den Konfigurationsmöglichkeiten doch deutlich eingeschränkt, ich würde es eher als NAS bezeichnen.

2020-06-25 - product-brief-data24-nvme-of-storage-platform.pdf.png
 
  • Gefällt mir
Reaktionen: J@ck
@bellencb
Interessante Specs die du gepostet hast. Wusste gar nicht, dass es Dual-Ported NVMe drives gibt bzw. das PCIe Multipathing unterstützt...
Auch die HA-Features entsprechen nun nicht wirklich denen gestandener Enterprise Arrays.

Aber wer auf "Hero-Numbers" steht und sonst keine (oder spezielle) Anforderungen hat... ;)

@Simon
Och, so ne HPE Primera würde mir da auch noch einfallen :schluck:
 
  • Gefällt mir
Reaktionen: J@ck und Simon
Naja, das sind ganz normale U2 DualPort Dinger. Die gibt es schon länger.

Je nach Platform hat man entweder beide Ports an einem Controller/Host, oder wenn man zwei Hosts in einem Chassi hat, jeweils an einen Host einen Port.

Ich bin mir da gerade nicht sicher, was dir da an HA Funktionalität fehlt.
 
@Skysnake
Ja, von der physikalischen Zuordnung der Ports hatte ich das so vermutet. Ich bin mir gerade aber nicht sicher ob im NVMe-Protokoll multipathing vorgesehen/spezifiziert ist. Im Zweifel (wenn so wie bei FC ist) sieht der Controller/Host das Device ja zweimal (einmal pro Port) und muss daraus wieder eins machen. Und ob das mit PCIe geht entzieht sich meiner Kenntnis.

Ohne mich im Detail mit der Lösung beschäftigt zu haben vermisse ich in der Auflistung so triviale Dinge wie Raid, Dual Controller (oder sind das die IOMs?) oder async/sync replication.
Wobei Letzteres je nach Positionierung auch nur ein nice-to-have ist.
Aber bei knappen 16TB pro drive wäre ein Schutz gegen drive failure schon schön ;)
Ergänzung ()

Nichts desto trotz wird es ein sau schnelles array sein und bei den Features und der Positionierung werden sie sich schon Gedanken gemacht haben.
Und als Hersteller von Speichermedien ist es sicherlich kein Fehler neue Technologien schon mal in einem eigenen Produkt zu adaptieren.

Das NVMe-oF kommt steht außer Frage nur wann es im RZ auf breiter Front eingesetzt wird... Mal abwarten - meine Glaskugel hat an der Stelle einen Sprung :heilig:
 
Zuletzt bearbeitet:
@SuperDonkey Das ist ja auch kein Hardware-Raid wie ne NetApp oder so, sondern ne Büchse für Software Defined Storage. Da wird man in der Regel noch nen Declustered Raid oder Raid 1 drüber bügeln, je nachdem wie wichtig einem die Latenzen sind.

Das ist ja auch eher nicht für long time storage vorgesehen, sondern für hot data während irgendwelchen Anwendungsläufen, oder für Checkpoints. Da hat man dann nämlich auch noch Zugriff, wenn nen Knoten oder nen ganzes Rack aus geht.

Und man hat halt ne zentrale Stelle, an der man Speicher verwaltet. Man muss also nicht in jeden Knoten ne NVME einbauen. Und zudem kann man mit einem Knoten 1TB haben, oder halt auch 0GB. Das haste mit lokalen Platten halt nicht. Ist also viel flexibler und man braucht insgesamt eher weniger Speicher.
 
  • Gefällt mir
Reaktionen: noxcivi und SuperDonkey
Halt ne kleine Speicherkiste...

Kann man nicht mit ner z.B. HPE Nimble AF vergleichen
 
Naja 6x 100Gb Ethernet ist garnicht mal so schlecht. Denke mal die können das auslasten. Das deckt sich mit einem Youtube Video das ich mal gesehen habe eine U.2 SSD schafft 25Gb/s, 4 davon lasten eine 100Gb Verbindung aus. Die Frage ist eher ob sie da noch eine Fehlerkorrektur mit rein gebaut haben.
 
Zuletzt bearbeitet von einem Moderator:
Die Angabe von 70GB/s entspricht genau der Nettodatenrate von 6x100Gb Ethernet. Die 3GB/s einer guten SSD reichen also zum Auslasten dieses Systems.
Mir gefällt die Modularität. Man kann sich überlegen, ob je ein InfiniBand zu einem top rack Switch geht oder alle per link aggregation zu einem core switch gehen.
Die erwähnte Ausfallsicherheit durch die Trennung von hot und cold storage ist nice to have.
 
Zurück
Oben