News ExaDrive DC100: Die erste 100-TB-SSD kommt von Nimbus Data

Einzig bei großen Storageservern setzt man noch stark auf 3,5 Zoll.

Warum wohl...;)

Aber auch hier wird sich das ändern

Eher nicht.

Du bekommst problemlos eine 2,5 Zoll Platte mit Einbaurahmen in einen 3,5 Zoll Schacht, umgekehrt klappt das nicht.

Achneee...;) Wär ich jetzt nicht drauf gekommen!

In der Letzten Zeit mal einen neuen Server in der Hand gehabt?

Nein, denn ne Lagerhalle ist schlecht in der Hand zu halten...;)
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
3,5" finde ich etwas hinderlich, aber es werden sicher auch 2,5" in der Regionen geben.
Da ist derzeit bei der Samsung PM1643 mit 30,72TB Schluss, um mehr Kapazität zu erreichen,
muss man wohl noch größere Dies schaffen oder mehr als 16 pro Chip unterbringen. Aber ich könnte mir vorstellen das es Samsungs Ziel ist die angekündigte 128TB SSDs im 2.5" Formfaktor zu bringen.
Shoryuken94 schrieb:
3,5 Zoll wird auf absehbare Zeit sterben
Das glaube ich absolut nicht, die ganzen 3.5" HDDs mit hohen Kapazitäten erscheinen zuerst als Enterpise Nearline HDDs und solche werden fast nur großen Mengen in Servern verbaut. Es hängt eben davon ab welche Anforderungen man an das Storage hat, wenn wie hier hohe Kapazität bei geringen Kosten statt hoher Leistung gefordert ist, dann sind 3.5" bei HDDs der Formfaktor der Wahl.
Shoryuken94 schrieb:
Denn spätestens wenn es darum geht aus Platzgründen ein weiteres Rechenzentrum zu bauen bzw. aktuelle Kapazitäten zu erhöhen, wird sich das noch eher rechnen.
Da werden keine weiteres Rechenzentren gebaut, da wird hinten angebaut, die Dinger wachsen nach Bedarf immer weiter.
Shoryuken94 schrieb:
die festplatte ist in meinen Augen deshalb aber noch lange nicht tod. Diese wird uns sicher noch einige Jahre begleiten, denn auf absehbare Zeit wird man die Preise pro GB nicht erreichen können
SSDs werden wohl auch nur in die Nähe der Preise pro TB von HDDs kommen und es wäre auch gar nicht möglich die gesamte Kapazität die heute an HDDs gebaut wird, auf SSDs umzustellen, dazu reicht die weltweite NAND Fertigung bei weiten noch nicht aus, die müsste sich, ich hatte es vor einiger Zeit mal ausgerechnet, ich meine etwa Vervierfachen um zusätzlich die NAND Kapazität liefern zu können die der Kapazität der produzierten HDDs entspricht!
pigggy schrieb:
Also wenn man da nen pcie 3.0 16x Anschluß dranhängt könnte ich evt. damit leben aber nicht mit 500MB/s näääää.
Schnelle PCIe SSDs werden für ganz andere Anwendungen genutzt als solche SSDs mit sehr hohen Kapazitäten, Du hast den Sinn dieser SSD nicht verstanden. Diese SDDs sind nicht für Einsätze gedacht wo es auf die Performance ankommen, sondern für hohe Kapazität in sehr großen Storages. Wäre sie schneller, gäbe es wohl auch ein Kühlproblem, mit 10W im Idle ist diese schon hoch und mit 14W im Betrieb nicht so viel höher, aber um Geschwindigkeit zu bekommen müsste man viel mehr Dies parallel ansprechen, dann wäre die Leistungsaufnahme im Betrieb weitaus höher und die Idle auch, weil die Controller für so schnelle SSDs auch aufwendiger sind und entsprechend viel mehr Leistung aufnehmen. Aber die Leistungsaufnahme ist jetzt schon in einem Bereich der selbst für 3.5" HDDs hoch ist, wäre sie nochmal deutlich höher, bekäme man sie wohl kaum nicht gekühlt, zumal die Wärme ja auch intern noch ans Gehäuse abgeführt werden muss bevor sie nach außen abgegeben werden kann.

Dann wäre bei einem PCIe Interface das Problem, dass kein Server so viele PCIe Lanes hat um überhaupt viele solcher SSDs schnell anzubinden.
der_infant schrieb:
Wie sieht es Innen aus? Wieviel Chips sind verbaut und auf wievielen Platinen?
Das ist eine gute Frage, die Antwort würde mich auch interessieren.
der_infant schrieb:
Bei aktuellen 256gbit pro Chip (32gbyte) müssten da drin ja 300 Chips verlötet sein xD.
Zwar ist von MLC die Rede, aber MLC kann auch 3bpc (also TLC) bedeuten. Die 3D NANDs von Hynix gibt es aber auch mit 512 Gbit Diesize, keine Ahnung ob dies auch für 2bpc gilt:
Crass Spektakel schrieb:
Harddisks fallen nichtnur preislich langsam zurück sondern auch in der Packungsdichte.
In den Kapazitäten ja, aber beim Preis? Dann musst Du nämlich erstmal frage wo die 10TB SSD für 300€ ist.

Crass Spektakel schrieb:
Dabei wäre es so einfach:

Platten mit viel Platz sind heute 3,5 Zoll + halbe Bauhöhe. Ich habe hier noch Platten mit 3,5" Zoll + Volle Bauhöhe mit mehr Scheiben als jede derzeit erhältliche Platte, nämlich 12.
Nur war die Datendichte damit viel geringer und die Abständer der Köpfe zur Oberfläche waren viel höher. Die Vibrationen so einer lange Achse sind aber bei den heutigen Datendichten gar nicht mehr tolerierbar.
Crass Spektakel schrieb:
Auch eine 5,25 Zoll Platte mit doppelter Bauhöhe habe ich hier.
Bei 5.25" wäre es noch schlimmer, die Amplituden die von den Vibrationen am äußeren Rand so großer Platter erzeugt werden, wäre viel zu groß als dass sich damit noch irgendwas anfangen ließe.
Crass Spektakel schrieb:
Aber anscheinend will die Festplattenindustrie garnicht mithalten.
Doch, aber die wissen das der Weg über größer Formfaktoren technisch nicht machbar ist. Keine Ahnung wieso manche immer meinen da wäre nur Idioten am Werk und nicht auf die offensichtlichen Lösungen kommen, aber dabei vergessen das es genau diese Lösungen ja schon früher gab und diese nicht ohne Grund schon vor langer Zeit aufgegeben wurden, weil es einfach nicht mehr ging, als man die Datendichte gesteigert hat.Mit den geringen Datendichten die dann noch möglich sind, wäre die Kapazität so einer Platte viel geringer als die 14TB die man schon erreicht hat.
Sinnfrei schrieb:
Das einzige was nicht geht ist TRIM, weil alle aktuellen Raid-Controller das im Raid-5 Modus nicht unterstützen, was eigentlich schon verwunderlich ist. Ein logischer Sektor ist im Raid-5 einem Sektor auf jeder Platte zugeordnet, wenn das OS ein Trim für einen logischen Sektor schickt, warum schafft man es nicht das an die jeweiligen physischen Sektoren weiter zu schicken?
Das Schicken ist nicht das Problem, sondern die Konsistenz des RAID danach. Ist die Parity auch 00 wenn auf allen Platten 00 steht? Wenn nicht, wäre das RAID sowieso inkosistent und was ist bei SSDs die nach einem TRIM nicht 00 zurückgeben, sondern zufällige Werte? Die ist gerade bei SSDs mit Verschlüsselung normal und damit wäre die Paritiy garantiert falsch oder wenn geprüft wird, während die eine SSD den TRIM befehl ausgeführt hat die andere aber noch nicht? Damit wäre ein solcher RAID also eigentlich immer inkonsistent und außerdem spielt TRIM bei Entepriseanwendungen auch kein Rolle, da es nur beim Löschen von Dateien genutzt wird, aber bei Enterpriseanwendungen werden kaum mal Dateien gelöscht, sondern meist wird nur überschrieben, da gibt es gar kein TRIM. Außerdem sollten Enterprise SSDs genau Overprovisioning haben um auch im vollen Zustand die geforderte Schreibperformance zu halten und TRIM ist für allem dafür da eine bessere Schreibperformance zu ermöglichen.
 
CoffeeJunkie schrieb:
~50 kW -> ~16 kW => 78 % lower power
na wenn ihr meint :D

Zum Glück sind Entwicklungs- und Marketingabteilung zwei Paar Schuhe, sonst müsste man an dem Produkt so seine Zweifel haben.

Wovon redest du? 50kW? Motorleistung eines Motorrades oder Erstellungsenergie eines Autos?! Hoffentlich nicht vom Verbrauch einer SSD?!
Ergänzung ()

Crass Spektakel schrieb:
Harddisks fallen nichtnur preislich langsam zurück sondern auch in der Packungsdichte....

sagt einer, der die News über die 14TB HDD wohl noch nicht gelesen hat. Ohne SMR!

BananaBob schrieb:

bei SATA3 und selbst nur 50TB absoluter quatsch. wenn du auf mehr Speed aus bist, dann warte auf ne Version mit 3.0x4 oder wenigstens SAS 1200 ^^
 
Sinnfrei schrieb:
Normalerweise kein Problem. Das einzige was nicht geht ist TRIM, weil alle aktuellen Raid-Controller das im Raid-5 Modus nicht unterstützen, was eigentlich schon verwunderlich ist. Ein logischer Sektor ist im Raid-5 einem Sektor auf jeder Platte zugeordnet, wenn das OS ein Trim für einen logischen Sektor schickt, warum schafft man es nicht das an die jeweiligen physischen Sektoren weiter zu schicken?

Linux dm- und mdraid unterstützen bei allen RAID-Varianten TRIM, sogar RAID66 (also ein RAID6 aus anderen RAID6). Zusammen mit Stride- und Stripe-Size im Filesystem bringt das eine Menge.

Hardware-RAID? Nein danke. Langsam, teuer, schwierig im Havariefall zu handhaben. Einzig ein Puffer-Akku ist ein Vorteil den man nicht in Software lösen kann aber da ist mit eine gesonderte USV trotzdem lieber.
Ergänzung ()

Holt schrieb:
Das Schicken ist nicht das Problem, sondern die Konsistenz des RAID danach. Ist die Parity auch 00 wenn auf allen Platten 00 steht? Wenn nicht, wäre das RAID sowieso inkosistent und was ist bei SSDs die nach einem TRIM nicht 00 zurückgeben, sondern zufällige Werte? Die ist gerade bei SSDs mit Verschlüsselung normal und damit wäre die Paritiy garantiert falsch oder wenn geprüft wird, während die eine SSD den TRIM befehl ausgeführt hat die andere aber noch nicht? Damit wäre ein solcher RAID also eigentlich immer inkonsistent und außerdem spielt TRIM bei Entepriseanwendungen auch kein Rolle, da es nur beim Löschen von Dateien genutzt wird, aber bei Enterpriseanwendungen werden kaum mal Dateien gelöscht, sondern meist wird nur überschrieben, da gibt es gar kein TRIM. Außerdem sollten Enterprise SSDs genau Overprovisioning haben um auch im vollen Zustand die geforderte Schreibperformance zu halten und TRIM ist für allem dafür da eine bessere Schreibperformance zu ermöglichen.

Du redest von Parity bei eDrive/OPAL. Das ist aber eine lediglich in der Windows-Welt verbreitete Lösung die sich rein per Software abschalten lässt dann arbeitet die Platte wie gehabt. Dass die Hersteller (z.B. Crucial) hier brunsbieseldoof sind erschwert die Sache allerdings: Die raten heute noch dazu die Platten zu Abschalten von OPAL einzuschicken... AUA.

Die Rückstellung von OPAL auf ATA geht rein per Software aber eben nicht unter Windows sondern bestenfalls mit einem Linux-Rettungssystem mit besonderen Boot-Optionen und einem widerlichem kleinen Spezialprogramm, dabei gehen alle Daten auf der Platte verlohren (glaube Boot-Parameter war libata.allow_tpm=1 und das tool war sedutil).

Erschwerend kommt dazu dass der Windows-Installer beim Installieren OPAL wieder einschaltet. Das kann man allerdings per Registry vor der Installation dauerhaft deaktivieren.

OPAL/eDrive ist eine der schlimmsten Plagen unter diesem Himmel.

Derart gebändigt macht OPAL auch im RAID kein Problem.
Ergänzung ()

Holt schrieb:
Bei 5.25" wäre es noch schlimmer, die Amplituden die von den Vibrationen am äußeren Rand so großer Platter erzeugt werden, wäre viel zu groß als dass sich damit noch irgendwas anfangen ließe..

Deiner Logik nach geht mehr auf 2,5" als auf 3,5" weils weniger vibriert.

Siehst Du den Logikfehler?

Im Übrigen hatte ich eine der letzten 5,25-Zoll-Platten im Einsatz, 3GB in einem Zeitalter als mit 3,5 Zoll gerademal 1GB üblich war und das zum gleichen Preis. Nur die Geschwindigkeit war etwas niedriger, die genauen Zahlen kenne ich nicht mehr aber war wohl Seek/Read 10ms, 10MB/s gegen 15ms, 8MB/s pro Sekunde. Das Laufwerk war noch dazu deutlich kühler als damalige 3,5-Laufwerke. Nein, das war nicht die Quantum Bigfoot sondern irgend eine Seagate-Platte.
 
Love Guru schrieb:
Wovon redest du? 50kW? Motorleistung eines Motorrades oder Erstellungsenergie eines Autos?! Hoffentlich nicht vom Verbrauch einer SSD?!
Hast Du den Artikel nicht gelesen? Sonst wüsstest Du was gemeint ist und mit ein wenig Rechnen wäre auch klar, dass 16kW nur 68% und nicht 78% weniger sind als 50kW.
Love Guru schrieb:
sagt einer, der die News über die 14TB HDD wohl noch nicht gelesen hat. Ohne SMR!
Was immer noch deutlich weniger als 100TB ist, also ändert es nichts an der Aussagen und wenn man dann noch bedenkt das Samsung sogar im 2.5" Formfaktor 30,72TB SSDs anbietet.....
Love Guru schrieb:
bei SATA3 und selbst nur 50TB absoluter quatsch. wenn du auf mehr Speed aus bist
Speed ist nicht das Thema, sondern Verfügbarkeit bei Ausfall eines Laufwerks! Kein Mensch wird eine solche 100TB SSD kaufen, sondern die Gehen in großer Zahl in Storages die viele PB Daten aufnehmen müssen und da ist immer mit einem Ausfall eines Laufwerks zu rechen, nur können Anbieter die solche Storages brauchen, also z.B. Google, Facebook oder Netflix dann nicht einfach mal Pause machen bis die defekte SSD getaucht und das Backup wieder eingespielt ist.
Crass Spektakel schrieb:
Linux dm- und mdraid unterstützen bei allen RAID-Varianten TRIM, sogar RAID66 (also ein RAID6 aus anderen RAID6).
Hast Du dafür einen Beleg? Meines Wissens ist dies der Stand der Dinge:
Bei RAID 0 und RAID 1 und damit auch RAID 10 ist dies ja auch kein so großes Thema, da hier nicht das Problem besteht das die Parity nicht 00 ist, wenn von allen Platte 00 ausgelesen wird. Nur im RAID 1 gibt es Probleme wegen der abweichenden Daten die von beiden SSDs ausgelesen werden, wenn die SSDs kein DZAT (Deterministic Read Zero After Trim) haben.

Bei Dabian gilt:
Crass Spektakel schrieb:
Hardware-RAID? Nein danke. Langsam, teuer, schwierig im Havariefall zu handhaben.
Wieso soll das im Fall eines HW Ausfalls schwe zu handhaben sein? Die meisten Controllerhersteller halten die Metadaten über Generationen von Controllern kompatibel und Linux md SW RAID unterstützt obendrein die Metadatenformate viele HW wie auch Intels Chipsatz RAIDs.
Crass Spektakel schrieb:
Du redest von Parity bei eDrive/OPAL.
NEIN, ich rede von der Parity von RAID 5 und 5 (und 3 und 4, aber wer nutzt die noch), also der Parity von RAIDs die nicht wie RAID 1 (und 10) eine Spiegelung sind. Von eDrive/Opal habe ich gar nicht geredet, keine Ahnung wie Du auf das dünne Eis kommst.
Crass Spektakel schrieb:
Deiner Logik nach geht mehr auf 2,5" als auf 3,5" weils weniger vibriert.
Tut es das etwa nicht? Bei der 5TB 2.5" ST5000LM000 steht:
Bei der 12TB 3.5" ST12000VN0007, die über ein Jahr jünger ist:
Die Werte der neuen 14TB habe ich allerdings noch nicht, aber die Entwicklung geht ja weiter und daher muss man schon auf etwa gleich alte HDD Modelle vergleichen.
Crass Spektakel schrieb:
Siehst Du den Logikfehler?
Welchen Logikfehler? Schau dir auch mal an wie viele HDDs mit 10.000rpm und mehr es noch in 3.5" gibt und wie viele in 2.5". Außerdem gibt es 2.5" HDDs mit 7mm Bauhöhe und 2TB auf 2 Platter, in 15mm mit 5TB auf 5 Platter. Zieht man nur 3mm für Boden und Deckel ab, wäre es 12mm für die 5 Platter, ohne Heliumfüllung wohlgemerkt und 8 Platter wäre dann auf 19,2mm möglich, die 3.5" sind 26mm hoch, Heliumfüllung und trotzdem fehlen die mittleren Gewinde für die Befestigung. Man kann also trotz geringere Dichte der Daten und der Heliumfüllung in 3.5" nicht die gleichen geringen Abstände der Plattern realisieren wie bei 2.5".
Crass Spektakel schrieb:
Im Übrigen hatte ich eine der letzten 5,25-Zoll-Platten im Einsatz, 3GB in einem Zeitalter als mit 3,5 Zoll gerademal 1GB üblich war und das zum gleichen Preis. Nur die Geschwindigkeit war etwas niedriger
Wegen der Vibrationen durfte die nicht so hoch drehen, die letzten hatten nur noch 4200rpm wenn ich mich nicht irre und 1TB mögen üblich gewesen sein, aber es gab sicher auch schon größere Kapazitäten in 3.5". Die 5¼" sind ausgestorben, wie schon vorher die HDDs mit noch größere Formaten, weil man die Probleme nicht in den Griff bekommen hat, die mit der Größe wegen der Vibrationen entstehen. Die ST5000LM000 hat 580 Ktracks/in avg, also 22835 Spuren pro mm, was bedeutet das die Spuren 44µm voneinander entfernt sind, wobei die ein Durchschnittswert ist und die Platte SMR hat. Die ST8000DM004 kommt als 3.5" SMR HDD mit 2TB pro Platter nur auf 540 ktracks/in Track density (avg) und eine Areal density (avg) von 1203 Gb/in², also auch weniger als die 1307 Gb/in² der 2.5" SMR Platte.
 
Holt schrieb:
Welchen Logikfehler? Schau dir auch mal an wie viele HDDs mit 10.000rpm und mehr es noch in 3.5" gibt und wie viele in 2.5".
Es gab nie 3.5" mit 10k rpm. Gehäuse ja, aber die Platter waren immer kleiner.
Ansonsten hast du uneingeschränkt Recht. Verstehe nicht warum bei jedem HDD Thema immer die Forderung nach mechanisch größeren Dimension kommt. Das ist einfach nicht vernünftig machbar. HDDs sind schon langsam genug, da will keiner die Rotationsgeschwindigkeit weiter reduzieren.

Und vor allem ist der Nutzen begrenzt.
 
bensen schrieb:
Es gab nie 3.5" mit 10k rpm. Gehäuse ja, aber die Platter waren immer kleiner.
Eben, dies kommt noch dazu. Und warum hat man dies wohl gemacht? Sicher nicht weil man auf die Kapazität und Geschwindigkeit, bei mehr Umfang steigen ja auch die Transferraten weil mehr Daten in der Zeit für eine Umdrehung vorbeikommen, hätte verzichten können. :evillol:
 
Ab 16TB sollte NTFS 8k Cluster nutzen. Aber mal ehrlich, solche SSDs sind für Server und da ist Windows nun wirklich nicht die erste Wahl, ich würde niemals einen Server auf Basis von Windows aufsetzen, da weigere ich mich strikt.
 
bensen schrieb:
Das ist einfach nicht vernünftig machbar. HDDs sind schon langsam genug, da will keiner die Rotationsgeschwindigkeit weiter reduzieren.

Und vor allem ist der Nutzen begrenzt.

Dann gibt es ja noch Bandlaufwerke.

Ist da keine Lücke zwischen HDD und Band?

Irgend etwas mit 1.000 TB mit 50 MB/s die aber ständig im Zugriff ist?

Ich erinnere mich noch an die Waschimaschinengroße Einheiten wo man einen Stapel von etwa 50 cm großen Scheiben einlegte.

Laut Facebook soll es ja einen nennenswerten Anteil von Daten geben die einmal geschrieben und nie wieder gelesen werden. Dafür wären doch solche langsame aber riesige Speicher doch nicht uninteressant?
 
Holt schrieb:
Ab 16TB sollte NTFS 8k Cluster nutzen. Aber mal ehrlich, solche SSDs sind für Server und da ist Windows nun wirklich nicht die erste Wahl, ich würde niemals einen Server auf Basis von Windows aufsetzen, da weigere ich mich strikt.

Es gibt Dinge, da MUSS es ein Windows Server sein, z.B. WSUS.
 
Holt schrieb:
Ab 16TB sollte NTFS 8k Cluster nutzen. Aber mal ehrlich, solche SSDs sind für Server und da ist Windows nun wirklich nicht die erste Wahl, ich würde niemals einen Server auf Basis von Windows aufsetzen, da weigere ich mich strikt.

So dogmatisch würde ich das nicht sehen.

Bei AD und Exchange muss man wohl in den sauren Apfel beissen.
 
Wattwanderer schrieb:
So dogmatisch würde ich das nicht sehen.

Bei AD und Exchange muss man wohl in den sauren Apfel beissen.

Eine Art Active Directory kann man auch mit einem SAMBA-Server realisieren, laut Kollegen-Aussage sogar in friedlicher Ko-Existenz mit "echten" Windows-DCs.
 
@websurfer83: Für gute Betriebssysteme braucht es auch keinen WSUS. :D Aber ja, um ein Windows-OS mit zentralen Updates zu versorgen, ist das Ding tatsächlich relativ praktisch, aber auch nicht ohne Non-MS Alternativen. Und tatsächlich so ziemlich der einzige Windows-Server, den man brauchen könnte. (Es sei denn, man will sich mit Krankheiten wie Exchange oder Sharepoint rumschlagen.) Für einen AD-Controller oder Fileshares braucht es schon seit Jahrzehnten kein Windows mehr und selbst die MS-Datenbanken laufen in der aktuellen Version (zu 90%) theoretisch unter Linux und Co.

Auf einem Systemcluster für NAS im Bereich von größeren Tera- oder Exabytes hat ein MS-OS aber dann tatsächlich eher nichts verloren. Bei SoHo könnte ich es noch verstehen. Aber selbst dort gibt es kaum Gründe, die explizit und ausschließlich FÜR MS sprechen.

Regards, Bigfoot29
 
Crass Spektakel schrieb:
Auch eine 5,25 Zoll Platte mit doppelter Bauhöhe habe ich hier. Jede einzelne Scheibe kommt auf die drei bis vierfache Nutzfläche und in doppelte Bauhöhe bekommt man locker 50-70 Platter rein, d.h das Laufwerk käme auf 200-300TB.

Der einzige Unterschied wären zusätzliche Platter, ein etwas grösseres Gehäuse und etwas stärkere Motoren, d.h. der Preis sollte völlig linear skalieren.

Aber anscheinend will die Festplattenindustrie garnicht mithalten.

Weil es Schwachsinn Wäre. Du hättest zwar in einem Laufwerk mehr Speicher, der Gesamtplatz geht aber in die Höhe! Man kauft nicht eine Festplatte für ein Rechenzentrum, sondern tausende. Mit solch riesigen Platten nimmt Datendichte ab, zudem werden sie zunehmend ineffizienter. Du benötigst deutlich mehr Energie, um so viele schwere platten auf eine entsprechende Drehzahl zu bringen.

Holt schrieb:
Da ist derzeit bei der Samsung PM1643 mit 30,72TB Schluss, um mehr Kapazität zu erreichen,
muss man wohl noch größere Dies schaffen oder mehr als 16 pro Chip unterbringen. Aber ich könnte mir vorstellen das es Samsungs Ziel ist die angekündigte 128TB SSDs im 2.5" Formfaktor zu bringen.

Das glaube ich absolut nicht, die ganzen 3.5" HDDs mit hohen Kapazitäten erscheinen zuerst als Enterpise Nearline HDDs und solche werden fast nur großen Mengen in Servern verbaut. Es hängt eben davon ab welche Anforderungen man an das Storage hat, wenn wie hier hohe Kapazität bei geringen Kosten statt hoher Leistung gefordert ist, dann sind 3.5" bei HDDs der Formfaktor der Wahl.

Vom Platz her dürfte es weniger das Problem sein. Man kann sich ja mal den Spaß machen und verschiedene Laufwerke vergleichen ;)

Eine 2,5" SSD (7mm) hat ein Volumen von 49cm³, eine MicroSD Karte kommt auf gerade mal 0,165cm³. Aktuell ist die größte MicroSD die ich finden konnte 512GB groß. Rechnet man das um, merkt man, dass die kleinste 2,5" Laufwerke das Volumen von ca. 297 MicroSD Karten haben. Mit 297 512GB Karten käme man auf etwas über 152GB. ich denke also es sollte kein Problem sein, genug NAND Speicher auf den kleinen Raum zu bekommen ;) gehen wir von einem 9mm 2,5" laufwerk aus, dann findet da locker 128GB Nand Speicher plus Controller Platz.

Und auch was die Gesamtkapazität angeht, sieht es nicht besser aus. Vergleicht man mal eine handelsübliche 3,5 Zoll platte mit einer 3,5 Zoll Platte, so bekommt man auch da mehr Speicher pro Volumeneinheit unter. natürlich sind in Storageservern heute noch 3,5 Zoll Platten die erste Wahl, aber manchen fehlt es hier glaube ich ein wenig an Weitblick. Natürlich verschwinden diese nicht von heute auf morgen, aber wir befinden uns im Wandel. Im Heimbereich stirbt 3,5" ziemlich fix, in vielen Servern findet man heute auch nur noch 3,5" und auch in Storagesystemen werden wir in den nächsten jahren einen Umbruch sehen.

Im High Performancebereich schneller, als bei eher Mittelständischen Storagesystemen. Mit fallenden NAND Preisen und steigender datendichte werden festplatten sterben, egal ob sie pro GB günstiger sind.

Einfaches beispiel. Ein aktueller Backblaze Storage Pod v6 bietet platz für 60 3,5 Zoll Laufwerke. Gehen wir mal von den kürzlich vorgestellten 14TB Platten aus, sind das 840TB pro System. Auf die selbe Fläche kommt man mit NAND Speicher auf ca 72.081TB, also ca. das 86 fache! (wieder ausgehend von der Speicherdichte einer MicroSD Karte) Natürlich ist das eine kleine Milchmädchenrechnung, verdeutlicht aber gut, wo die Reise hingeht! Flash Speicher wird in Absehbarer pro GB nicht ansatzweise so günstig wie eine Festplatte, aber die Datendichte wird den Durchsatz bringen. Wenn ich statt 80 Systemen nur noch eins betreiben muss (oder in Googles Maßstäben halt 1000 statt 80000, dann spart das extrem viel Geld (Rackspace, Kühlung, stromverbrauch, Wartungsaufwand etc.)

Nicht heute und auch nicht in 3 Jahren werden wir solche Systeme auf Flashbasis sehen, aber sie werden kommen und damit auch der Tod der 3,5" Platten. Wahrscheinlich wird man komplett andere Formate nutzen. Wie gesagt, ich rede nicht von 1-2 Jahren, sondern von einer längerfristigen Entwicklung. Und ich hoffe einige verstehen auch, dass Flash pro GB nicht günstiger sein muss, als eine festplatte, um diese zu verdrängen.
 
Shoryuken94 schrieb:
Eine 2,5" SSD (7mm) hat ein Volumen von 49cm³, eine MicroSD Karte kommt auf gerade mal 0,165cm³. Aktuell ist die größte MicroSD die ich finden konnte 512GB groß. Rechnet man das um, merkt man, dass die kleinste 2,5" Laufwerke das Volumen von ca. 297 MicroSD Karten haben
Man braucht aber auch eine Verbindung zwischen den Karten, alleine das Volumen zu nehmen ist also unzureichend.
Man bekommt recht so 16 NAND Dies auf eine Seite einer Platine für 2.5", also 32 bei doppelseitiger Bestückung und braucht man hat dann gerade so noch Platz für den Controller und DRAM Cache. Derzeit sind bis zu 16 Dies in einem Chip gestapelt, was bei 512 Gbit Diesize dann 1TB pro Chip ergibt und nun kannst Du Dir vorstellen was in einer PM1643 30,72TB steckt. Bei 15mm Bauhöhe ist auch noch eine Tochterplatine machbar, aber die braucht viele Verbindungen, aber ich denke die 128GB SSD von Samsung wird so eine Tochterplatine haben und zusätzlich Dies mit 1Tb statt 512Gb pro Die, dann hat man die 128GB SSD im 2.5" Formfaktor.
Shoryuken94 schrieb:
gehen wir von einem 9mm 2,5" laufwerk aus, dann findet da locker 128GB Nand Speicher plus Controller Platz.
Dann baue eine, wenn Du meist dies wäre einfach und die anderen sind nur unfähige Idioten und werde reich indem Du ein einmaliges Produkt anbieten kannst. Das ist ja das schöne im Kapitalismus, dass jeder diese Chance hat.
Shoryuken94 schrieb:
Vergleicht man mal eine handelsübliche 3,5 Zoll platte mit einer 3,5 Zoll Platte
3.5" mit 3.5"?
Shoryuken94 schrieb:
Im Heimbereich stirbt 3,5" ziemlich fix
Davon sehe ich nichts, egal ob es um das 2TB Datengrab im PC oder das kleine NAS für Daheim geht, da sind 3.5" weiterhin Standard und wenn das NAS oder der Heimserver eine Kapazität im zweistellige TB Bereich bekommen soll, gibt es praktisch keine Alternative zu 3.5" HDDs, denn die größten 2.5" haben 5TB, sind aber nicht für Dauerbetrieb oder NAS Nutzung geeignet und man bräuchte auch mehr SATA Ports, Stromanschlüsse und Einbauplätze als für 3.5" die es mit 10 und 12TB zu recht attraktiven Preisen gibt. Wo sind also die ganze PC Gehäuse und NAS die massenweise 2.5" HDDs aufnehmen könne, wo es aber keine oder kaum noch 3.5" Einbauplätze gibt? Ich sehe bei den NAS mit ab 8 2.5" Slots beim Überfliegen der Daten überall sowas wie 8x 2.5"/3.5", allenfalls mal "8x 2.5"/3.5", 4x 2.5", also Bays die 2.5" und 3.5" aufnehmen und allenfalls ein paar die noch zusätzlich ein paar reine 2.5" Bays haben und genauso sieht es bei den PC Gehäuse aus, wenn man die ganz kleinen Formfaktoren ausnimmt.
Shoryuken94 schrieb:
Im High Performancebereich schneller, als bei eher Mittelständischen Storagesystemen. Mit fallenden NAND Preisen und steigender datendichte werden festplatten sterben, egal ob sie pro GB günstiger sind.
Im High Performancebereich sind die SSD massiv dabei HDDs zu verdrängen, dies ist klar und schon massiv in Gang, aber die Preise pro GB werden sie noch lange bei großen Storages im Multi PB Bereich attraktiv sein lassen, zumal die NAND Preise ganz schnell durch die Decke gehen würden, wenn zu viele solcher Storages künftig auf SSDs statt HDDs setzen würde, dann wie ich schon schrieb, entspricht die Kapazität der HDDs die produziert werden einem Vielfachen der Kapazität der ganze NANDs die produziert werden und von den NANDs geht nicht einmal ein Drittel in SSDs. Ich hatte ja mal ausgerechnet und will dies nun nicht raussuchen oder nochmal nachrechnen, aber die NAND Produktion müsste um den Faktor 4 oder 5 steigen um überhaupt genug NAND liefern zu können um die Kapazität der HDDs die produziert werden dann durch SSDs ersetzen zu können.

Es ist unsinnig anzunehmen das so eine Steigerung der Fertigungskapazität innerhalb kurzer Zeit erfolgen kann und wenn SSDs mit so hohen Kapazitäten es schaffen zu viele Unternehmen zum Umstieg von HDDs auf SSDs zu bewegen, dann haben wie schnell wieder eine NAND Knappheit mit entsprechend steigenden Preisen die dann so manches Unternehmen doch wieder zum Umdenken bewegen wird, weil die Wirtschaftlichkeit dann doch nicht mehr gegeben ist. So eine Ablösung kann also nur langsam und über Jahre bis Jahrzehnte erfolgen.
Shoryuken94 schrieb:
Ein aktueller Backblaze Storage Pod v6 bietet platz für 60 3,5 Zoll Laufwerke.
Der ist aber nicht gerade typisch für das was an Storages in Unternehmen verwendet wird, dort setzt man vor allen allem Systeme ein bei denen man von vorne an alle HDDs kommen und diese im laufenden Betrieb wechseln kann. Backblaze musste die sein Pods ja auch selbst entwickeln, weil der Markt sowas nicht ergibt. Anfangs hatten sie auch massive Probleme mit Vibrationen, weil die HDDs nur auf ihrer Steckerleiste ruhen und nicht seitlich befestigt sind, inzwischen haben sie glaube ich zumindest seitliche Führungsschienen eingebaut, aber die Art wie die HDDs dort drin sitzen, ist nicht fachgerecht, denn laut Spezifikation sind HDDs mit 4 Schrauben fest zu verschrauben und Gewicht darf eben nicht auf dem Anschlussstecker lasten.
Shoryuken94 schrieb:
Flash Speicher wird in Absehbarer pro GB nicht ansatzweise so günstig wie eine Festplatte, aber die Datendichte wird den Durchsatz bringen. Wenn ich statt 80 Systemen nur noch eins betreiben muss
Lies auch noch mal Post #40.
 
hmm das Teil ist ja teurer als Gold :lol:
 
Holt schrieb:
Dann baue eine, wenn Du meist dies wäre einfach und die anderen sind nur unfähige Idioten und werde reich indem Du ein einmaliges Produkt anbieten kannst. Das ist ja das schöne im Kapitalismus, dass jeder diese Chance hat.

Ach immer diese dumme Aussage, wenn man keine Argumente hat. Wo habe ich denn geschrieben, dass das einfach ist und die anderen unfähig? Natürlich steckt da enorme Entwicklungsarbeit hinter! Nichts anderes habe ich behauptet und ich habe auch mehrfach gesagt, dass die angesprochene Entwicklung noch mehrere Jahre dauert und nicht von heute auf morgen geht!

Davon sehe ich nichts, egal ob es um das 2TB Datengrab im PC oder das kleine NAS für Daheim geht, da sind 3.5" weiterhin Standard und wenn das NAS oder der Heimserver eine Kapazität im zweistellige TB Bereich bekommen soll, gibt es praktisch keine Alternative zu 3.5" HDDs

Der alte Fehler, dass man von seinen Ansichten auf den Gesamtmarkt schließt. Das ist besonders in einem Technikforum schwierig. Homeserver, Nas-Systeme und co im Zweistelligen TB Bereich sind eher die Ausnahme, als die Regel. Wenn du nicht siehst, dass 3,5" massiv an Marktanteilen abbaut, dann willst du es nicht sehen. Immer mehr Systeme verzichten komplett auf HDDs, und setzen auf Flashlaufwerke. Nas und co. setzen aktuell natürlich noch auf 3,5 Zoll festplatten. Im PC hingegen wird das deutlich weniger. Zumal der Heimbereich sehr variabel ist. Es haben auch immer weniger überhaupt einen PC, in anderen Geräteklassen spielt das Format allein wegen der größe schon keine Rolle. und wie gesagt, nur weil eine Technik stirbt, heitß es ja nicht, dass diese von heute auf morgen verschwinden.

zumal die NAND Preise ganz schnell durch die Decke gehen würden, wenn zu viele solcher Storages künftig auf SSDs statt HDDs setzen würde, dann wie ich schon schrieb, entspricht die Kapazität der HDDs die produziert werden einem Vielfachen der Kapazität der ganze NANDs die produziert werden und von den NANDs geht nicht einmal ein Drittel in SSDs. Ich hatte ja mal ausgerechnet und will dies nun nicht raussuchen oder nochmal nachrechnen, aber die NAND Produktion müsste um den Faktor 4 oder 5 steigen um überhaupt genug NAND liefern zu können um die Kapazität der HDDs die produziert werden dann durch SSDs ersetzen zu können.

ich habe doch mehrfach geschrieben, dass das ein langer Prozess ist und ich nicht von heute ausgehe....

Der ist aber nicht gerade typisch für das was an Storages in Unternehmen verwendet wird, dort setzt man vor allen allem Systeme ein bei denen man von vorne an alle HDDs kommen und diese im laufenden Betrieb wechseln kann. Backblaze musste die sein Pods ja auch selbst entwickeln, weil der Markt sowas nicht ergibt. Anfangs hatten sie auch massive Probleme mit Vibrationen, weil die HDDs nur auf ihrer Steckerleiste ruhen und nicht seitlich befestigt sind, inzwischen haben sie glaube ich zumindest seitliche Führungsschienen eingebaut, aber die Art wie die HDDs dort drin sitzen, ist nicht fachgerecht, denn laut Spezifikation sind HDDs mit 4 Schrauben fest zu verschrauben und Gewicht darf eben nicht auf dem Anschlussstecker lasten.

Da gibt es ganz verschiedene Ansätze, auch andere namenhafte Hersteller haben heute Systeme, wo man die Festplatten ähnlich montiert. Ich selbst bin kein Fan von den Backblaze Storagesystemen. Habe selbst damit mal gearbeitet, die sind halt ganz okay wenn man relativ viel Speicher günstig haben möchte. Aber von der Wartung wirklich nicht das gelbe vom Ei, zumindest die älteren, neuere habe ich noch nicht real gesehen.

Aber entsprechend ähnliche Systeme gibt es auch von Supermicro, nur etwas besser konzipiert. Da lassen sich (wenn die Systeme entsprechend montiert sind), die Datenträger im Betrieb austauschen. Wenn man nur Systeme verwendet, die Festplatten in der Front haben, dann muss man aber auch genug platz haben. Ansonsten gibt es da schon recht ausgeklügelte Systeme.

Ein Flashstorage hingegen wird in anderen bauformen angeboten. Flashspeicher kann in relativ beliebigen bauformen gebaut werden. Ein zukünftiges Flashstorage könnte beispielsweise recht lange Ruler SSDs verwenden, die alle von der Front zugänglich sind und eine entsprechende Länge im Server einnehmen. Festplatten sind in ihrer Bauform durch die Platten relazib beschränkt. Supermicro hat beispielsweise 1HE Ruler SSD Server mit 32 Laufwerken. Wenn dieseSSDs in einigen Jahren entsprechende kapazitäten haben, kann man einen großteil des Servers für das Speichermedium nutzen und alle sind von der Front zugänglich.


Ich schreibe es gerne noch mal!!!!!!!!!! Das ganze wird noch Jahre dauern und benötigt noch viel Entwicklung. Allerdings sind Dinge wie die höhere Datendichte, die flexible Bauform nicht von der Hand zu weisen. Natürlich braucht es noch A viel Entwicklungszeit für entsprechende Systeme und Laufwerke und B muss sich in der Produktion einiges tun.

Beides sind aber unausweichliche schritte in der Zukunft. Nicht Heute, nicht Morgen, aber in Zukunft, die ersten vorläufer sieht man schon heute durch produkte wie diese 100TB SSD.
 
Zurück
Oben