News ExaDrive NL: Günstigere 64-TB-SSD soll Nearline-HDDs ersetzen

Rickmer schrieb:
War das nicht sogar MLC?

Stimmt, sie hatten damals MLC angegeben, jetzt schreiben sie TLC. Entweder ein Speicherwechsel oder eine andere Auslegung für den Begriff Multi Level Cell. ^^
 
  • Gefällt mir
Reaktionen: Rickmer
Ich freue mich riesig auf den Tag, wo ich mal meine Daten aller Festplatten zu einer einzigen SSD zusammenfassen und in die Hosentasche stecken kann. Irgendwie habe ich immer Speichermangel und in Summe sind auch mehrere Festplatten recht teuer.
 
  • Gefällt mir
Reaktionen: Andillo
Sehr schön fürs Datacenter wenn dadurch die Effizienz bei höherer Geschwindigkeit steigt. Natürlich ist das nichts für den Privatmann, was soll man auch mit soviel Kapazität. Sieht man ja bereits am heftigen Preis.
 
drago-museweni schrieb:
Etwas mehr an Speicher wär schon fein, zu günstigeren Konditionen wie aktuell..
Billiger ist ja immer schön, aber die Zeit der schnellen Kostensenkungen bei NAND ist vorbei, stärkere Preissenkungen werden vor allem zu Lasten der Margen der Hersteller gehen, Schweinezyklus halt.
aklaa schrieb:
Die einzige SSD im 3,5" Format? Für den normalen PC ist doch kein Problem, das könnten mehr Hersteller machen/anbieten.
Wozu? Die Kosten sind pro TB nicht geringer weil man viele TB in ein Gehäuse packt, im Gegenteil steigen sie, wenn man mehrere Controller und einen RAID Controller oder SATA Port Multiplier verwenden muss, um die ganzen NAND Dies ansprechen zu können. Dies kann/will kein Heimanwender bezahlen und so viel NAND wie ein Heimanwender zu bezahlen bereit ist, passt auch locker in ein 2.5" Gehäuse. 1TB pro NAND Package sind kein Problem und es ist kein Problem 8 davon auf einer Seite einer Platine für ein 2.5" Gehäuse unterzubringen. Mit den QLC NANDs die teils 1Tbit pro Die haben und bis zu 16 Dies passen in ein Package, sind sogar 2TB pro NAND Chip machbar, also 32TB mit einer doppelseitig bestückten Platine in einem 2.5" Gehäuse und da könnte man noch eine Tochterplatine unterbringen und dann sogar 64TB realisieren. Der Platz ist nicht das Problem., sondern der Preis!
Bigeagle schrieb:
Ist IOPS/TB eine so relevante Metrik?
Ja, denn je mehr Daten man unterbringen kann, umso mehr Zugriffe passieren ja auch auf ein Laufwerk. Wenn man vorher die Daten auf 8 SSDs mit je 8TB stehen hatte und sie auf eine mit 64TB packt, so vereinen sich auch alle Zugriffe die vorher auf diese 8 8TB SSDs erfolgt sind, nun auf die eine 64TB SSD, die muss sie natürlich stemmen können.
Bigeagle schrieb:
Eine alte Platte hier ist nach IOPS/TB auch knapp 10-30 mal schneller als so eine popelige 18 TB Platte
Vergiss nicht das hier gerade mal über einen Adressraum von lächerlichen 2GB gebencht wurde, dabei braucht die HDD kaum ihre Köpfe zu bewegen. Deshalb scheinen die IOPS bei HDDs in solchen Benchnmarks ja auch immer besser zu werden, je größer die Kapazität ist, aber in Wahrheit passieren die Zugriffe natürlich über den ganzen (belegte) Adressraum und erfordern daher viel längere und damit länger dauernde Kopfbewegungen und ein Full Stroke ist immer noch nicht viel schneller als vor x Jahren. Die IOPS pro TB werden bei HDDs also schlechter je größer die Kapazität ist, weshalb es ja eben auch Entwicklungen wie die Multi Actuator Technology gibt.
Rickmer schrieb:
War das nicht sogar MLC?
Eben, so stand es damals auch in der News:
Das hatte mich damals schon gewundert:
Holt schrieb:
Crass Spektakel schrieb:
Ich halte diese Modelle für absoluten Quatsch.

1. viel zu teuer pro TB
Das ist ja auch Enterprise SSDs und wie man im Video welches in Post #8 verlinkt ist auch sieht, eine sehr aufwendig mit mehreren Controllern gebaute.
MichaG schrieb:
Stimmt, sie hatten damals MLC angegeben, jetzt schreiben sie TLC. Entweder ein Speicherwechsel oder eine andere Auslegung für den Begriff Multi Level Cell.
Vertrauen schafft sowas ja nicht gerade.
 
  • Gefällt mir
Reaktionen: Looniversity
Crass Spektakel schrieb:
Ich halte diese Modelle für absoluten Quatsch.
1. viel zu teuer pro TB
2. viel zu langsam
Bestenfalls fällt mir da ein NUClike-PC ein der unbedingt über 30TB Kapazität braucht. Hm, ne, das ist eher unvorstellbar.

Die Zielgruppe weiß ganz genau, bei welchen Parametern bei ihnen der Schuh drückt und wie viel Geld sie sparen könnten, wenn da eine bessere Lösung kommt.

Der Hersteller dieser Lösung weiß das auch, und wird die SSD so preisen, dass der Großteil der Ersparnis bei ihm landet und die Kunden trotzdem genug sparen um das Geld springen zu lassen.

Die Kunden, die angesprochen werden sollen, wissen vom Datenblatt schon, dass sie die Sache zumindest scharf kalkulieren und in Betracht ziehen sollten. Das ist nicht der Hobbymensch der einen niedlichen NUC rumliegen hat, sonder eher Firmen, die ein halbes Dutzend als Spielzeug zum evaluieren kaufen und dann bei ein paar Hundert Geräten anfangen.
 
Eben, wobei ich bezweifel das die 3.5" mit 64TB mehr Kapazität pro Rack erlaubt als die Samsung PM1643 mit 30,72TB im 2.5" Formfaktor.
 
Holt schrieb:
Ja, denn je mehr Daten man unterbringen kann, umso mehr Zugriffe passieren ja auch auf ein Laufwerk. Wenn man vorher die Daten auf 8 SSDs mit je 8TB stehen hatte und sie auf eine mit 64TB packt, so vereinen sich auch alle Zugriffe die vorher auf diese 8 8TB SSDs erfolgt sind, nun auf die eine 64TB SSD, die muss sie natürlich stemmen können.
das stimmt schon, doch ist das auch relevant bei einer platte dieser art? Die braucht schließlich über 36 stunden (!) um einmal ihre ganzen daten zu lesen. da ist durchsatz offensichtlich zweitrangig. daher meine frage.
natürlich hilft es nichts daten zu speichern wenn man sie dann nicht auch bei bedarf wieder lesen kann, insofern ist das nicht egal.

Überschlagsrechnung
die ssd hat 500 mb/s lesen und ca. 1500 IOPS -> etwa 333 kb groß müssen die datenblöcke sein um nicht auszubremsen.
typische hdd hat angenommen 160 mb/s avg und ca. 62 IOPS -> die datenblöcke müssen ca. 2,5 mb groß sein.

wer macht eine 64 GB platte voll die für eine SSD richtig langsam ist um dann datenmengen unter 300 kb in hoher geschwindigkeit lesen zu können?
ich stelle mir da als anwendungsfall eher größere dateien vor und einen RAM cache damit nicht in kleinstblöcken gelesen werden muss.
Holt schrieb:
Vergiss nicht das hier gerade mal über einen Adressraum von lächerlichen 2GB gebencht wurde, dabei braucht die HDD kaum ihre Köpfe zu bewegen.
Da hast du natürlich recht, die ergebnisse sind besser als sie sein sollten ;)
Aber 11 IOPS ist trotzdem arg bullshitverdächtig. eine WD Red hat typischerweise so 16 ms avg access -> 62,5 IOPS und dabei sind die schon eher gemächlich. Kp ob NCQ das in der Praxis noch mal nach oben reißt.
Welche Server HDD hat avg access times von 90 ms? Am Ende haben die aus versehen ein Bandlaufwerk getestet :evillol:

spaßeshalber hab ich mal geguckt ob man mit crystaldiskmark was erkennt wenn man die größe ändert. was man gut sieht ist der cache.
random 4k Queue length 1, Threads 1
2020-08-27 19_33_45-Unbenannt 1 - LibreOffice Calc.png

bei 16 mib gibts satte 2849 IOPS lesend :D
 
Bigeagle schrieb:
das stimmt schon, doch ist das auch relevant bei einer platte dieser art?
Ja, aber das ist die falsche Frage! Vielmehr müsste man sich, je nachdem wie relevant es ist, fragen ob dies die richtige SSD für den Zweck ist.
Bigeagle schrieb:
die ssd hat 500 mb/s lesen und ca. 1500 IOPS -> etwa 333 kb groß müssen die datenblöcke sein um nicht auszubremsen.
Erstens 1563IOPS pro TB, also 100.000 insgesamt und dann werden die IOPS in aller Regel auf 4k Zugriffe bezogen, man kann also diese Rechnung so nicht anstellen, da bei anderen Zugriffslängen andere IOPS erreicht werden, in aller Regel weniger als bei 4k, weshalb man ja auch mit dem Wert wirbt.
Bigeagle schrieb:
ich stelle mir da als anwendungsfall eher größere dateien vor und einen RAM cache damit nicht in kleinstblöcken gelesen werden muss.
Damit gewinnt man aber nur etwas, wenn die übrigen Daten die vorsorglich in den Cache gelesen werden, dann auch wirklich hinter (zumindest zu einem ausreichend hohen Prozentsatz) genutzt werden. Sonst erreicht man das Gegenteil.
Bigeagle schrieb:
Aber 11 IOPS ist trotzdem arg bullshitverdächtig.
Es sind ja IOPS pro TB, also 198 insgesamt und die schmeicheln der HDD vermutlich schon, eben weil sie nur über einen geringeren Adressraum ermittelt sein dürften.
Bigeagle schrieb:
bei 16 mib gibts satte 2849 IOPS lesend
Das ist dann aber der Effekt des DRAM Caches der HDD. Die Latenz, also die Zeit für eine halbe Umdrehung die es eben statisch braucht bis der angeforderte Sektor unter den Köpfen vorbeikommt, beträgt ja bei 7200rpm schon 5,6ms und damit sind maximal 180 IOPS möglich, ohne überhaupt die Zeit für die Positionierung der Köpfe zu berücksichtigen, die ja keineswegs so gering ist! Alles über 180IOPS muss daher von einem Cache kommen und daher sind die 198 IOPS mit denen hier für die 18TB gerechnet wurde, eben auch schon geschmeichelt.
 
@Holt ups, das pro TB hab ich verdrängt ^^'
ich schiebs mal darauf dass die katze mich abgelenkt hat.
oder mein arbeitsspeicher war voll :rolleyes:

interessanterweise gingen die iops beim schreiben nur auf 679
 
Bigeagle schrieb:
Ist IOPS/TB eine so relevante Metrik? Sieht für mich spontan aus wie cherry picking. Auch die DWPD als Maß für Zuverlässigkeit zu bezeichnen ist unsinnig. Da hat sich die Marketingabteilung offenbar nur mühsam zurückhalten können gleich nur mit 'best world leading super performance for business winners' oder ähnlichem zu werben
Nein, die Marketingabteilung hat hier gar nichts gemacht. CB hat den Wert falsch interpretiert.
In der Tabelle steht "Workload Rating". Hier geht es nicht um Zuverlässigkeit, sondern um Performance. Die HDD schafft Aufgrund der geringen Schreibleistung nur maximal 0,08 Drive Writes per Day. Die SSD schafft bei 460 MB/s immerhin 0,6 DWPD. Bei 460 MB/s schaffst du maximal rund 40 TB/Tag Schreibleistung und das sind rund 60% (=0,6)der Laufwerksspeicherkapazität.
 
lejared schrieb:
In der Tabelle steht "Workload Rating". Hier geht es nicht um Zuverlässigkeit, sondern um Performance.
Aber rechts daneben, mit dem blauen Hintergrund, steht 4x times more reliable und die Angaben dort beziehen sich immer auf die beiden Werte daneben. Außerdem sind 0,08DWPD für eine 18TB HDD, derzeit gibt es sowas nur als Enterprise Nearline Platte mit Zulassung für Dauerlast, einfach zu wenig. Außer vielleicht wenn man 4k Random Writes unterstellt, aber dann man bei der SSD wohl auch nicht mehr mit 460MB/s rechnen.
 
Alpha.Male schrieb:
100 TB ? Einmal..und dann nie wieder ein Laufwerk kaufen müssen. :D
Das habe ich schon bei meiner ersten 2 GB Platte gesagt. Die bekomme ich nie voll.
Wer weiß wo wir in 10 Jahren stehen? Programme, Videoauflösungen und Spiele werden künftig nicht kleiner.
Schon jetzt habe ich Daten um die 35 TB im Umlauf.
Zudem dürfte ein heutiges 100TB Laufwerk dann nichtmal wegen seiner Größe, sondern vor allem dann hinkenden Geschwindigkeit wiederum ausgemustert werden. Einen Ryzen 10000X will man ja nicht mit einer ollen Gurke bremsen. :lol:
 
  • Gefällt mir
Reaktionen: Alpha.Male
Also wie diese 'Nearline HDDs' ersetzen sollen erschliesst sich mir überhaupt nicht. Preis/TB ist ja gerade der Punkt bei NL HDDs, da ist man noch meilenweit davon entfernt. Und um ansatzweise attraktiv zu werden müssten sie auch SAS Versionen anbieten.
16TB SSDs (SAS!) bekommt man jetzt schon für ca. 3000€, das ist ausserdem nichts neues.

Und zum einen der Vorredner:
Performance/TB ist schon relevant. Im Normalfall hat man bei zunehmender Speicherkapazität auch viel mehr parallele Zugriffe.
 
Hoppla, das habe ich verpasst.
Interessant dass sie aber insbesondere bei der Schreibgeschwindigkeit massiv ggü. den SATA Varianten einbüssen. Da sind sie ja bald auf HDD Level (sequenziell).
 
Alpha.Male schrieb:
100 TB ? Einmal..und dann nie wieder ein Laufwerk kaufen müssen. :D
Gut, die einmalige Investition ist ein bissel hoch.
Und was ist mit dem Backup? Dafür braucht es nochmals 100 TB.^^
 
  • Gefällt mir
Reaktionen: Alpha.Male und Salierfähig
Was meint Ihr: wie viele Jahre wird es noch dauern, bis 100TB unter 5.000€ kosten?
 
@Popey900 meinste insgesamt, oder in einer SSD?

Aber der Preis von NAND muss sich auf jeden Fall noch einmal halbieren damit das was werden kann, das dauert noch.
 
Relict schrieb:
Das habe ich schon bei meiner ersten 2 GB Platte gesagt. Die bekomme ich nie voll.
Wer weiß wo wir in 10 Jahren stehen? Programme, Videoauflösungen und Spiele werden künftig nicht kleiner.
Schon jetzt habe ich Daten um die 35 TB im Umlauf.
Zudem dürfte ein heutiges 100TB Laufwerk dann nichtmal wegen seiner Größe, sondern vor allem dann hinkenden Geschwindigkeit wiederum ausgemustert werden. Einen Ryzen 10000X will man ja nicht mit einer ollen Gurke bremsen. :lol:
Jau.... endlich die P***Sammlung nur auf einem Laufwerk haben können.😁
 
Zurück
Oben