News ExaDrive: Die 100-TB-SSD kostet 40.000 US-Dollar

Zumal cloud eher eine HDD Anwendung ist wo mit caching SSDs gearbeitet wird. Ist viel billiger da eben nicht permanent auf den gesamten Inhalt zugegriffen werden muss sondern nur auf einen sehr kleinen Teil. Und da ist ein reiner SSD Storage Geldverschwendung
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Bei einer Anschaffung von zwei Stück wird einer entlassen.
der Einkäufer :rolleyes:
 
  • Gefällt mir
Reaktionen: Grimey
.Snoopy. schrieb:
Naja, für die großen Cloud-Anbieter sind die 40T € Portokasse.
Ich glaube wenige Unternehmen achten so sehr auf Bytes pro € wie Cloud-Anbieter.
 
  • Gefällt mir
Reaktionen: Holt, new Account(), AlphaKaninchen und 2 andere
Weyoun schrieb:
Warum man sowas im Enterprise-Sektor für 40 Riesen mit SATA anbindet, erschließt sich mir ebenfalls nicht.
Weil du in dem Bereich mit großen Aggregaten aus vielen Datenträgern arbeitest, auf die sich die Schreib- und Lesearbeit verteilt. Der Bottleneck liegt dann beim Storage-Controller.
 
Wenn ich mir anschaue, wie warm meine Samsung T5 mitunter wird, frage ich mich, wie die thermischen Eigenschaften dieses "Exadrive" aussehen ...
 
Auch ist die Leistungsaufnahme interessant. So viele Chips +Kontroller. Was das wohl verbraucht?
 
Bright0001 schrieb:
Ich glaube wenige Unternehmen achten so sehr auf Bytes pro € wie Cloud-Anbieter.
Das ist sicher richtig. Aber niemand kann sagen, ob sich das nicht armotisiert, wenn man als Kunde 50 oder gar 100 Stück davon ordert. Das wird der Preis pro Byte ganz anders aussehen. Nur weil man sich die Dimensionen nur schwer vorstellen kann, heißt das nicht, dass es nicht Firmen gibt, für die es sich rechnen wird.
 
Holt schrieb:
Bei den gerade erreichen 18TB ohne SMR bzw. 20TB mit SMR braucht man nicht Dutzende von HDDs
Da ich ja schreibe, dass eine SSD keinen Sinn ergibt, braucht man logischerweise deutlich mehr. Darauf bezog sich das Dutzende. Dass 500GB HDDs da nicht mehr eingesetzt werden, ist ja doch bekannt :p
 
ReactivateMe347 schrieb:
Wenn ich mir anschaue, wie warm meine Samsung T5 mitunter wird, frage ich mich, wie die thermischen Eigenschaften dieses "Exadrive" aussehen ...
Sind bis zu 16 W laut Herstellerseite. Und da die Schreibgeschwindigkeit wegen SATA eher moderat ist (im Vergleich zu M.2 PCIe) und sich die Schreiblast auf viele Chips verteilt, dürfte die thermische Belastung kaum eine Rolle spielen.
PS828 schrieb:
Auch ist die Leistungsaufnahme interessant. So viele Chips +Kontroller. Was das wohl verbraucht?
Bis zu 16 W.
 
  • Gefällt mir
Reaktionen: new Account() und PS828
Rickmer schrieb:
Bei MLC NAND? Da wirds keinen SLC Cache geben.

War doch nur ein Scherz :D

Außerdem gab es MLC-SSDs mit SLC-Cache, z.B. Toshiba HG5d.

PS828 schrieb:
Die braucht keinen Cache. Ist eine sata SSD. Und da es MLC ist ist es auch egal. Selbst QLC hätte kein Problem damit bei dieser Menge der Chips das sata Limit auszulasten

Ich lese allerdings nirgendwo welcher Controller drin ist und wie viele Chips der ansteuert.

Bei SATA-Anschluss glaube ich nicht dass der so viele Chips gleichzeitig ansteuert. Damit ist die Behauptung dass auch QLC kein Prob hätte den SATA-Anschluß auszureizen etwas gewagt, zumindest beim Schreiben.
 
Staubwedel schrieb:
Ich lese allerdings nirgendwo welcher Controller drin ist und wie viele Chips der ansteuert.
Der größte MLC Chip den ich mir aktuell vorstellen könnte wäre mit 500GB, möglicherweise gibt es sogar nur 250GB.

Das wären also 200-400 Chips in dem Trümmer.
 
  • Gefällt mir
Reaktionen: PS828
onesworld schrieb:
Aber niemand kann sagen, ob sich das nicht armotisiert, wenn man als Kunde 50 oder gar 100 Stück davon ordert. Das wird der Preis pro Byte ganz anders aussehen.
Ob sich das armotisiert oder nicht ist Banane, niemand gibt für Technik mehr aus als nötig. Außerdem sind 100 Stück eine lächerlich geringe Menge um da groß Mengeneffekte aus der Produktion mitzunehmen, und falls man doch ordentliche Rabatte bekommt, dann nur, weil die Marge vorher schon zu fett war.

Es mag einzelne Fälle geben, in denen es auf möglichst hohe Speicherdichte ankommt, aber Cloud-Anbieter sind da sicherlich nicht von betroffen.
 
Vindoriel schrieb:
Sind bis zu 16 W laut Herstellerseite. Und da die Schreibgeschwindigkeit wegen SATA eher moderat ist (im Vergleich zu M.2 PCIe) und sich die Schreiblast auf viele Chips verteilt, dürfte die thermische Belastung kaum eine Rolle spielen.
Bis zu 16 W.
Naja, die T5 ist auch nur maximal doppelt so schnell wie SATA 6G bei wahrschreinlich USB 3-Standard 0,9A*5V=4,5W und da staut sich die Hitze auf laut Magician über 70 Grad.
 
Wattwanderer schrieb:
Mir will keine Szenario einfallen wo der Platz so knapp ist, um diese SSD zu rechtfertigen.

1 HE im RACK wird sich doch immer noch reinquetschen lassen?
Wenn dann ist die ja wohl für Firmenkunden gedacht, so nicht noch mal ein HW in ein Rack gequetscht werden kann bzw. dies nichts bringt, sondern wo eher die Frage ist, wie viele Racks man nicht in Rechenzentrum quetschen kann.
Wattwanderer schrieb:
Wenn sich der Preis 9 x halbiert wären wir bei weniger als 100 EUR. Selbst bei HDDs ging das sicher nicht in 10 Jahren.
9 mal halbieren, das ist Faktor 512. Für meine erste SSDs habe ich 2,50€/GB gezahlt, heute kosten die um 0,10€/GB, was gerade mal Faktor 25 ist und das in der Zeit in der SSDs und NAND generell zu einem Massenprodukt geworden ist.
Wattwanderer schrieb:
Aber ganze 9 x? Gut möglich, dass wir das gar nicht mehr erleben. Ich spekuliere sogar, dass in der Technik maximal 5 bzw. 6 Halbierungen überhaupt drin sind bis wir an den Grenzen der Physik sind, so wie HDDs aktuell.
Eben, bei HDDs hat es fast 9 Jahre gedauert die Datendichte zu verdoppeln, was aber noch keine komplette Halbierung des Preises erlaubt, weil ja auch der Aufwand und damit die Kosten höher geworden sind. Wenn wir in 10 Jahren bei 5ct/GB für ordentliche Consumer SSDs sind, dann wird das schon gut sein, die Zeit der schnellen Halbierungen ist auch bei NAND vorbei.
.Snoopy. schrieb:
Du postest die Micron 5210 ION 7.68TB, SATA und die ist QLC und langsamer in schreiben und IOPS (write 4,5K vs 105K) als das ExaDrive.
Normalerweise werden bei Enterprise SSDs die IOPS Schreibend im Steady State über den ganzen Adressraum hinweg angegeben, also im Worst Case und bei Consumer SSDs im Best Case, also bei leerer SSD und oft nur über einen kleinen Adressraum von sogar nur 1GB. Daher sind die IOPS Schreibend bei Enterprise SSDs so viel geringer als bei Consumer SSDs angegeben, aber diese 105k werden "bis zu" angeben:
Das ist für eine Enterprise SSD extrem ungewöhnlich und über 100.000 sind bei SATA sowieso nicht drin, dafür ist der Overhead des Protokolls bei so kurzen 4k Zugriffen viel zu hoch. Unseriöse Firmen wie z.B. Intenso nehmen sogar einfach die sequentiellen Transferraten und teilen sie durch 4k und geben dies als IOPS an, dann kommt man auf über 100.000, aber dies sind keine IOPS und es so zu machen ist technisch falsch und eben komplett unseriös.
.Snoopy. schrieb:
Zur 860er EVOs. Ja, die ist schneller, aber auch massiv kleiner und für eine Enterpriselösung weniger denkbar. Oder soll in jedem HDD Slot eine 860er EVO liegen? Wäre sicherlich je nach Konfiguration/Verwendung des Servers denkbar, aber wohl eher nicht.
Die 860er sind Consumer SSDs und kein vernünftiger Mensch würde sie in einem Server in einer Produktivumgebung in einem Unternehmen nutzen. Dafür verwendet man die entsprechenden Enterprise SSDs.
.Snoopy. schrieb:
Quad(2^4) schreiben ist meinem Kenntnisstand nach fehlerbehafteter als normales Dual (2^2=MLC). Die Fehler müssen ja unter anderem durch umfangreichere Programmierung in den Controller der SSD ausgeglichen werden.
Entscheidend ist doch was am Ende rauskommt, nachdem der Controller die Fehlerkorrektur ausgeführt hat und da sind QLC SSDs nicht schlechter als solche mit MLC NAND.
.Snoopy. schrieb:
Zu IOPS, ich weiß das viel hilft viel, wobei ich mir nicht sicher bin ob nicht irgendwann sowieso das Netzwerk limitiert.
Die IOPS muss man auch erstmal abrufen können, dazu braucht man viele parallele Zugriffe. Lesen kommen die ganzen SSDs mit normalem NAND bei 4k QD1 bestenfalls auf so 60MB/s, was eben 15.000 IOPS sind und auch wenn die IOPS nicht perfekt linear mit der QD steigen so braucht man mehr als 6 parallele Zugriffe um über 90.000 IOPS lesend zu kommen. Im PC von Heimanwendern sind aber schon 4 parallele Zugriffe im Alltag sehr selten, ob die SSD noch viel mehr oder noch sehr viel mehr IOPS leisten könnte, spielt also keine Rolle, viel wichtiger ist es das sie bei QD1 auf möglicht hohe Werte kommt, die Latenz also gering ist.
.Snoopy. schrieb:
Die ExaDrives haben bei den IOPS 105K schreiben und 114K beim lesen.
Bis zu, was für eine Enterprise SSDs eine unseriöse Angabe ist. Überhaupt sind die technischen Angabe so knapp, das Datenblatt ist eher eine Werbebroschüre als seinem Namen gerecht zu werde und nennt nicht einmal die Voraussetzung unter denen Angaben wie "42% lower TCO over 5 years than competing SSDs" denn gelten sollte, also mit Konfiguration dies verglichen wurde, zumal es ja keine direkt vergleichbaren SSDs gibt. Seriös wirkt das alles auf mich nicht, ich würde da erstmal eine Teststellung verlangen, bevor ich deren SSDs kaufen würde.
Rickmer schrieb:
... bis auf SLC (!) in der Form von Intel Optane, welches 100x schlechter ist mit < 1 sector per 10^15 bits read
Die kleinen Consumer Optane wie die 800P werden tatsächlich nur mit < 1:10^15 angegeben, aber die Enterprise Version Optane™ SSD DC P4800X hat 1:10^17 im Datenblatt stehen und bei deren Consumer Ableger 900P steht die gleiche Angabe.

Es kommt nicht auf das Medium an, die Medien sind alle Fehleranfällig, egal ob HDDs oder SSDs und egal wie viele Bits pro Zelle im NAND gespeichert werden, die UBER hängt am Ende immer davon ab wie gut der Controller die Fehlerkorrektur macht.
Rickmer schrieb:
Der größte MLC Chip den ich mir aktuell vorstellen könnte wäre mit 500GB, möglicherweise gibt es sogar nur 250GB.
Die Kapazität eines NAND Dies wird immer in Bit (bzg. Gigabit) angeben, die Chippackages können bis zu 16 Dies aufnehmen. Aber Du kannst ja mal selbst im Produktkatalog von Micron nach MLC NAND mit entsprechenden Kapazitäten suchen.
ReactivateMe347 schrieb:
Naja, die T5 ist auch nur maximal doppelt so schnell wie SATA 6G bei wahrschreinlich USB 3-Standard 0,9A*5V=4,5W
Die Samsung T5 Portable hat intern eine mSATA SSD und ist daher nicht schneller als SATA 6Gb/s und außerdem steht auf deren Etikett "Rated DC 5V 0.8A". Wie warm sie wird, hängt wie bei jeder passiv gekühlten Hardware davon ab wie warm die Umgebung ist und ob ein kühlender Luftstrom drüber streicht und wie stark der ist. Bei den SSDs um die es hier geht, die ja für den Einbau in Servern sind, wird diese Luftstrom mit Sicherheit vorhanden sein, die Gehäuse haben ja üblicherweise in der Mitte eine Reihe von Lüftern um für diesen Luftstrom zu sorgen und die angesaugte Luft streicht daher über die Laufwerke vorne im Gehäuse.
 
@Holt
Bei den Datenblatt bin ich bei dir. Dennoch denke ich nicht das Nimbus Data Daten angibt die komplett an der Realität vorbei sind. Immerhin beliefern die den Enterprisebereich und ich glaube da kann man sich das bestimmt weniger leisten mit falschen Daten zu werben.
Wenn ich das richtig gelesen haben, nutzen die mehrere Flash-Controller im ExaDrive. Deswegen wohl auch die IOPS up to. Denn je nachdem wohin geschrieben wird kann da sicherlich Leistung gegenüber SSDs mit einfachen Controller Design punkten. Wie oft der best case vorkommt wäre dann natürlich interessant.

Im Sheet Vergleich werden zudem die Konkurrenz-Produkte angegeben, worauf diese sich beziehen.
Aber auch hier wird natürlich Nimbus Data versuchen gut dazustehen. Das würde jede Firma versuchen, die Frage ist nur wurden realistische Konkurrenzprodukte genommen oder nur ShowCase?
 
.Snoopy. schrieb:
Immerhin beliefern die den Enterprisebereich und ich glaube da kann man sich das bestimmt weniger leisten mit falschen Daten zu werben.
Versuchen tun es manche trotzdem.
.Snoopy. schrieb:
Wenn ich das richtig gelesen haben, nutzen die mehrere Flash-Controller im ExaDrive. Deswegen wohl auch die IOPS up to.
Das mag ja sein das da intern mehrere Controller im RAID arbeiten, dies ist auch die wahrscheinlichste Lösung wie sie die Kapazität realisiert haben da sie ja wohl keinen eigenen SSD Controller gebaut haben werden und die auf dem Markt verfügbaren Controller gar nicht so viel NAND ansprechen können. Wobei ich mich in dem Fall über die MTBF von 2,5 Millionen Stunden wundere, denn kein Controller ist mit derart viele Stunden angegeben und bei mehreren im Verbund wird der Wert entsprechend kleiner, sofern keine Redundanz vorhanden ist. Bei 8 SSDs im RAID 0 werden aus den 2 Millionen Stunden jeder SSD dann nur noch 250.000 für den Verbund und dazu müsste ggf. noch die MTBF des RAID Controllers eingerechnet werden, wenn der auch eine Ausfallwahrscheinlichkeit von einem Ausfall alle 2 Millionen Stunden, bleiben für alles zusammen nur 222.000 Stunden in denen mit einem Ausfall zu rechnen ist. Bei einem Gerät ist dies egal, da die geplante Nutzungsdauer vorher abgelaufen ist, aber bei 1000 davon ist dann alle 222 Stunden mit einem Ausfall zu rechnen, also grob alle 10 Tage.

Wobei 8 Controlller für die 100TB nicht reichen, der PS3112-S12DC Enterprise SSD Controller unterstützt maximal 8TB, der Marvell 88SS1074 hat "4 NAND Channel with 8 CEs", kann also 32 Dies ansprechen, aber bei den Diesize von MLC, dies dürfte bestenfalls 256Gbit sein, wäre das 1TiB, man bräuchte also 100 davon. Selbst wenn man die 1TBit QLC Dies nimmt und diese als Pseudo-MLC nutzt, wäre es nur 2TB pro Controller und damit noch 50 Controller.

Der SMI SM2271 hat "8CH/8CE for total 64CE" und unterstützt "Up to 16TB", aber um die 16TB ausschöpfen zu können, bräuchte man auch NAND Dies mit 2Tbit pro Die, die es noch gar nicht gibt und als MLC gleich mal gar nicht. Aber wenn, dann käme man mit 8 von den Controllern aus,

NimbusData wirbt aber mit 2,5 Millionen Stunden MTBF, mehr als jeder andere, dies wäre nur möglich, wenn die vielen Controller intern mit Redundanz wie ein RAID 5 arbeiten und selbst dann wäre es schwer einen solchen RAID Controller zu finden der alleine mit einer so hohen MTBF spezifiziert ist. Außerdem hat ein RAID 5 immer eine Write Penalty, da sind so viele IOPS Schreibend dann noch unwahrscheinlicher und man gibt bei Enterprise SSDs immer den Mindestwert an, denn die Server müssen ja eine bestimmte Aufgabe erfüllen und bei eine bestimmten QoS einhalten, dazu muss man sich darauf verlassen, dass die SSD immer mindestens so viele IOPS schafft wie spezifiziert ist.

Auch wenn man sich die Awards auf deren Homepage anschaut, so ist nur beim ersten ein pdf dahinter wenn man drauf klickt und schaut auf der Seite derjenigen schaut die diese vergeben haben, findet man sie meist nicht. Oder allenfalls sowas wie dies hier, den sie 2011 von "Storage Magazine and SearchStorage.com editorial staff" für ein All-SSD Storage bekommen haben.
.Snoopy. schrieb:
Aber auch hier wird natürlich Nimbus Data versuchen gut dazustehen.
Klar, "Endurance Unlimited for 5 yr" klingt gut, ist aber wegen der Zeit die man braucht um die SSD überhaupt so oft zu überschreiben auch nicht viel, es dauert eben locker 2½ Tage die einmal zu beschreiben und damit wären mehr als 0,4DWPD schon von der Seite her unmöglich, würden sich aber im Vergleich zu den 3DWPD die die meisten anderen SSDs haben mit denen sie sich vergleichen, nicht gut aussehen. Schon alleine daher ist die Auswahl z.B. der SM883 von Samsung fragwürdig, die PM1643 die es auch mit über 30TB gibt, wäre passender und ebenso von Micron wohl eher die 5210 ION als die 5300 MAX, denn bei der ExaDrive geht es ja nicht um Performance, sondern die TCO für große Storages. Das die bei SSDs mit 3DWPD natürlich höher sind als bei den Modellen für leseintensive Anwendungen, ist auch klar, aber wenn man so schreibintensive Anwendungen hat, muss man die Daten auch übers Interface bringen und wenn man auf SATA und nicht auf NVMe setzt, braucht man mehrere SSDs im RAID um alleine schon die Datentransfer zu bewältigen.

Außerdem vergleichen sie ihre SSD mit SATA SSDs, geben aber trotzdem über 100.000 IOPS an, aber so viel geht einfach gar nicht über das Interface.

Das macht auf mich alles keinen seriösen Eindruck.
 
  • Gefällt mir
Reaktionen: .Snoopy.
blubberz schrieb:
Wär sicher ziemlich ärgerlich, wenn das Teil abraucht :D

sind dann halt im Nimbus (Data). Der Name ist Programm. Und SSDs gehen Geräuschlos von heute auf morgen kaputt. Vollständig. Dieses Jahr 2 Stück. Etwa 5-9 Jahre alt.
 
Zurück
Oben