News ExaDrive NL: Günstigere 64-TB-SSD soll Nearline-HDDs ersetzen

Rickmer schrieb:
meinste insgesamt, oder in einer SSD?
In einer SSD. Ich finde es bleibt spannend. Vielleicht wird es noch 10 Jahre dauern, oder es ist in 3-4 Jahren schon so weit. Wenn man bedenkt wie schnell es im Moment bei den Nands weiter geht.
 
Eggcake schrieb:
Interessant dass sie aber insbesondere bei der Schreibgeschwindigkeit massiv ggü. den SATA Varianten einbüssen.
Wo hast Du das denn gelesen? Ich dem im Artikel verlinkten Datenblatt steht dazu nichts. Das hat den Namen Datenblatt sowieso nicht verdient und die Vorteile sind:
• World’s highest capacity QLC flash SSD Stimmt wohl, aber das es eine SSD mit QLC NAND ist, hat allenfalls beim Preis einen Vorteil.
• World’s only enterprise SAS QLC flash SSD Dürfte auch stimmen, aber wo ist das ein Vorteil? Siehe auch oben wegen QLC.
• Superior reliability over mechanical HDDs Was zu beweisen wären, wenn sie wie die andere mit einem RAID Controller bzw. Port Multiplier mit RAID Funktion und mehreren SSDs aufgebaut ist, was ich bei den 7W Leistungsaufnahme im Idle stark vermute, wäre dies erst noch zu beweisen. Normalerweise haben die Enterprise Nearline HDDs mindestens 2 Millionen Stunden MTBF und auch eine SSD hat selten mehr, schon weil die Hersteller der Controller gar nicht mehr angeben, schon bei 2 davon wären es nur noch 1 Millionen Stunden und dazu kommt noch die Ausfallrate des Chips der die einzelnen SSDs im inneren der Exadrive vereint.
• 95% lower data access latency than HDDs Das sollte man von SSDs auch mindestens erwarten können.
• Up to 7.5 higher density than NVMe SSDs Das ist ein ganz komischer Punkt. Gegenüber welcher NVMe SSD in welchem Formfaktor hat man dies ermittelt? Up to ist ja immer so eine Gummiangabe und NVMe ist sowieso nur ein Softwareprotokoll für SSDs mit einem PCIe Controller, die gibt es in vielen Formfaktoren, Add-In-Card, U.2, M.2 und eben auch die neuen Formfaktoren wie NGSFF (Next Generation Small Form Factor, aka M.3 aka Samsung NF1) und WDSFF (aka. Intel Ruler), die ja gerade eingeführt um viel Kapazität pro cm² Frontfläche zu ermöglichen. Dies ist nämlich das wirklich wichtige Maß, da man so defekte SSDs einfach im laufenden Betrieb des Servers tauschen kann, density dürfte auf Volumen bezogen sein und nicht wirklich das Dinge. Außerdem gibt es die Samsung MZ4LB15THMLA (PM983, 15.36TB NF1) "Measuring only 30.5mm x 110mm x 4.38mm". Das sind 15,36TB auf 14,7cm³, 1,045TB/cm³. 3.5" sind 147mmx101,85mmx26mm, haben also 389,3cm³, womit die 64TB Exadata nur auf 0,164TB/cm³ kommt, womit die Datendichte bei der PM983 15,35TB also um den Faktor 6,3 höher ist als bei der Exadata 64GB. Mit dem up to rettet man sich also den Arsch, denn in Wahrheit ist es fast genau umgekehrt, sofern man die passende NVMe SSD zum Vergleich auswählt.

Im Datenblatt der Exadrive steht "Enables up to 1.44 PB raw flash per rack U", was 22,5*64TB sind, wie bekommt man 23 3.5" Laufwerke auf 1U oder meinen sie ein ganzes Rack mit 44U? Samsung schreibt "the NGSFF form factor allows up to 36 front-accessible SSDs to fit in a single 1U server.", 36*15,36TB = 553TB auf 1U bzw. über 24PB pro rack (44U).
• 76% lower power usage per TB than NVMe SSDs Das stimmt garantiert so pauschal nicht und sagt auch gar nichts aus, da wir nicht wissen ob die Idle Leistungsaufnahme gemeint ist, die ist bei Consumer NVMe SSDs i.d.R. viel geringer als bei Enterprise Modellen, oder die unter Last und wenn, unter welcher Last? Unter Last müsste man außerdem die Performance, also bei Enterprise SSDs vor allem die IOPS berücksichtigen und dann dürfte die Sache schnell anderes aussehen.
• Plug-and-play with existing 3.5” HDD slots Das sollte man ja auch erwarten können, wenn schon ein etablierter Standard Formfaktor verwendet wird!
 
Ich würde soooo gerne einen bezahlbaren raidz2 auf 4x4TB SATA ssds bauen :( aber das wird erstmal nix
 
Bigeagle schrieb:
Ist IOPS/TB eine so relevante Metrik? Sieht für mich spontan aus wie cherry picking. Auch die DWPD als Maß für Zuverlässigkeit zu bezeichnen ist unsinnig. Da hat sich die Marketingabteilung offenbar nur mühsam zurückhalten können gleich nur mit 'best world leading super performance for business winners' oder ähnlichem zu werben O.o
Eine alte Platte hier ist nach IOPS/TB auch knapp 10-30 mal schneller als so eine popelige 18 TB Platte ^^

IOPS/TB sind im Enterprise Bereich übliche Benchmark-Größen.
Aber man muss halt wissen, was man benchmarken will.
50/50 Random Read/Write bei 32K?
Ja, da kann man in Sachen Marketing viel tricksen. Aber im Enterprise-Bereich sollte man wissen, was man sucht und wird sich alleine von der Herstellerangaben bei so einem Invest nicht überzeugen lassen.

Darüber hinaus ist schon alleine die schiere Größe EINES Datenträgers nicht wirklich für einen Performancegewinn verantwortlich. Je nach Interface wird der Bottleneck die Vielzahl der parallelen Zugriffe sein. Auf 50TB+ greifen in der Regel auch enorm viele „Konsumenten“ zu.
Wenn da also der falsche Server vor hängt, bremst dich das Interface aus, obwohl die Platte noch nichtmal ausgelastet ist.
 
wHiTeCaP schrieb:
Je nach Interface wird der Bottleneck die Vielzahl der parallelen Zugriffe sein.
O.o
Hast du ne Idee wie viele IOPS über einen SATA3 Port gehen? Ich ging immer davon aus dass der so schnell ist dass das praktisch irrelevant ist da Platten schon bei 4k langsam sind und praktisch garantiert die maximale Bandbreite limitiert.
Ich finde auf die schnelle nichts zum Overhead (abgesehen von 8in10 encoding) oder sachen wie 'transfers per second) und ehrlich gesagt auch nichts konkretes zur Übertragung selbst.
 
Der Overhead ist bei SATA bei nur 4k pro Zugriff recht hoch und praktisch sind daher bei SATA 6Gb/s lesend maximal so 100.000 IOPS möglich, schreibend etwas weniger.
 
Man muss erstmal einen Anwendungsfall haben, in dem 100k IOPS der limitierende Faktor sind...

mir fallen das spontan nur Fälle für Server-Umgebungen ein, wo etwas IOPS-intensives wohl kaum von einer einzelnden SATA-SSD betrieben wird.
 
Eben, die üblichen SSDs schaffen bestenfalls um die 60MB/s bei 4k QD1 Lesend und dies sind eben 15k IOPS. Auch wenn die IOPS natürlich nicht perfekt mit der QD skalieren, so kann man doch klar sagen, dass es über 6 parallele Zugriffe braucht um auf die 100k IOPS zu kommen, was bei Heimanwender abseits von Benchmarks schon wirklich extrem selten vorkommen dürfte, sind da doch schon 4 parallele Zugriffe sehr selten. Wenn die 980 Pro wirklich 22k IOPS Lesend hat, dann sollte sie die 100k IOPS mit 5 parallelen Zugriffen schon erreichen und bestenfalls sogar übertreffen können.
 
Zurück
Oben