News 2,5"-Enterprise-HDDs mit 15.000 U/min von HGST

POINTman-10

Redakteur
Teammitglied
Registriert
Feb. 2014
Beiträge
1.690
Die Western Digital Tochter HGST baut mit der Ultrastar-C15K600-Serie ihr Angebot an Festplatten für Server, Blades und Storage Arrays im kleinen Formfaktor aus. Die 2,5-Zoll-HDDs mit einer Höhe von 14,8 mm und Umdrehungsgeschwindigkeiten von 15.000 U/min. sollen niedrigere Kühlungs- und Gesamtbetriebskosten verursachen.

Zur News: 2,5"-Enterprise-HDDs mit 15.000 U/min von HGST
 
Für Notebooks wohl eher nix.. Da schmielzt das Gehäuse weg.. Aber wofür sonst..
 
server mit 2 Höheneinheiten wo die 2,5 zoll Festplatten senkrecht eingebaut werden? z.B.
 
Da sieht man mal wieder, was eine SSD nicht leisten kann: über Jahre hinweg viele Daten verarbeiten. Diese Platten werden wohl einige 100GB pro Tag schreiben/ lesen...
 
Steht da doch. Für server, blades und storage arrays. Ich bezweifle, dass viele laptops eine sas schnittstelle haben.
Die sibd einfach nix für heimnutzer.
 
beckenrandschwi schrieb:
Da sieht man mal wieder, was eine SSD nicht leisten kann: über Jahre hinweg viele Daten verarbeiten. Diese Platten werden wohl einige 100GB pro Tag schreiben/ lesen...
Wie kommst du darauf, dass SSDs das nicht leisten können? Enterprise-SSDs können das genauso.

Eine 500 GB SLC-SSD mit 100.000 Zyklen kannst du 100.000 Tage lang überschreiben, wenn man als Maßstab mehere 100GB pro Tag (z.B. 500 GB) zu Grunde legt. Das sind 280 Jahre. Bei günstigeren eMLC-SSDs mit 10.000 Zyklen sind es nur noch 28 Jahre. Wo sollen SSDs da jetzt ein Problem gegenüber Festplatten haben?
 
Zuletzt bearbeitet:
@Atkatla
Mal abgesehen davon dass die 100.000 Zyklen für SLC aus einer Zeit stammen als 3xnm Flash noch modern war, und dieser Wert für aktuellen SLC auch niedriger wenngleich auch immer noch ordentlich höher als MLC ist:

Write Amplification und Wear Leveling macht dir diese Rechnung komplett zugrunde. Kein Hersteller wird dir ein SLC Laufwerk liefern auf das du 300GB/Tag für 5 Jahre schreiben kannst.
Die größte SLC SSD die Geizhals atm überhaupt kennt ist die hier: http://www.tomshardware.com/reviews/p320h-ssd-pci-express,3344.html

Write Endurance für die 480GB Variante (ich finde nur die bei Geizhals) 25 PB. Wären schon mal nur 52k Schreibzyklen.
Das Problem ist halt, dass diese 25PB NAND Writes sind und nicht 25GB über den hier PCIe Connector. Jeder Write der kleiner als ein NAND Block ist, verbraucht dann ein Vielfaches seiner eigentlichen Größe an NAND Writes. Jedes mal wenn die SSD Wear Leveling betreibt, also Speicher umschichtet, damit nicht immer die selben Zellen beschrieben werden, vebraucht sie für den Umschichtvorgang Writes.

Und all das summiert sich zusammen. Wenn du riesige Mengen sequienzeller Daten schreibst, ist es tatsächlich nahezu unmöglich die SSD totzuschreiben. Aber ein dicker Datenbankserver, der bei jeder Änderung eines Eintrags, die winzigen teilweise wenige Byte großen Änderungen in seine Tabellen eintragen muss, der nudelt dir die SSD in Rekordzeit kaputt. Und da führt eben nach wie vor kein Weg an solchen HDDs vorbei. Auch wenn sie erheblich langsamer sind.
 
500GB eSLC SSDs sind in größeren Mengen sicher abartig teuer...
Wenn die Leistung dieser HDDs reicht, dann einfach 4 Stück in den Server rein mit RAID, und passt.
Für Kanzleien, wo nur ein par Dinge über den Server laufen, die datenbanken drauf sind usw.
Also nix großartiges. Obwohl, da würden "stinknormale" 0815 7.200rpm HDDs auch schon reichen... ;)

MFG
 
Ich frage mich bis heute, warum diese Platten so klein sind, also platzmäßig. Wenn die Speicherdichte ansonsten zu hoch wird und bei den hohen Drehgeschwindigkeiten nicht mehr gelesen werden kann, nun, soweit ich weiß erhöht sich die Geschwindigkeit auch mit höherer Dichte.
 
Damit hat WD meines Wissens erstmalig ein Produkt mit Hitachi im echten Unternehmensumfeld. Lange Zeit war ja die Raptor das Vorzeigeprodukt. Andere Hersteller haben mit einer Cheetah oder Atlas ganz andere Produkte im Sortiment. Für weniger kritische Datenaufgaben gab es daher bessere Alternativen als WD, also damit auch echte HGST Produkte.
 
@dgschrei: Vernünftige Storage-Tiers für Datenbankumgebungen schreiben nicht gleich jede Seite in einen Block, sondern sammeln erst, um genau das zu verhindern, was du beschreibst. Kleine Zugriffe landen in solchen Caches, sequentielle werden gleich durchgereicht, damit kann man die Write Amplification extrem senken. Unterm Strich sind diese Teile jeder HDD-Lösung deutlich überlegen (im Kontext zum dem was Beckenrandschwi geschreiben hat).
Ergänzung ()

Xpect schrieb:
Ich frage mich bis heute, warum diese Platten so klein sind, also platzmäßig. Wenn die Speicherdichte ansonsten zu hoch wird und bei den hohen Drehgeschwindigkeiten nicht mehr gelesen werden kann, nun, soweit ich weiß erhöht sich die Geschwindigkeit auch mit höherer Dichte.
Weil Platz in Datacentern Geld kostet. Für Server in 1HE Bauform kann man mit 2,5" Platten bis zum 8 Platten in der Front unterbringen und hat trotzdem noch Platz für Frontbedienung usw. oder die Bauformen für Bladeserver. Da ist nix mit 3,5".
 
Zuletzt bearbeitet:
@Atkatla
Es geht aber halt eben genau nicht um neue Seiten sondern um Veränderung bereits bestehender.
Nimm doch einfach mal z.B. das Amazon Inventarsystem. Jedes mal wenn ein Kunde was bestellt, muss die Anzahl der noch auf Lager befindlichen Produkte nach unten korrigiert werden. Da wird in einer bereits bestehenden Zeile einer Datenbank eine einzelne Zahl umgeändert. Bei einem 32bit Integer(Oracles zahlen sind größer) wären das ganze 4 byte. Die muss man eben an dieser Stelle ändern. Kein Datenbanksystem der Welt, packt die Änderung an eine andere Stelle innerhalb des Speichers, weil das quasi zu sofortiger Fragmentierung der Datenbank führen würde und a) die Größe der Datenbank vor lauter Querverweisen auf andere Stellen explodieren würde und b) die Zugriffszeiten dadurch absolut in den Keller gehen würden. Also muss die SSD wohl oder übel die Korrektur an der selben Stelle schreiben. Und schon hast du massive Write Amplifikation.

Nehmen wir mal 1 Mio Einkäufe am Tag bei Amazon. Und gehen wir von 64kb Blockgröße der SSD aus. (Ich glaube es sind üblicherweise viel mehr, aber bleiben wir mal vorsichtig). 1 Mio Anpassungen a 4 byte:
Realer Schreibaufwand aus Sicht der Anwendung: 4 Mio Byte also minimal weniger als 4 MB
Schreibaufwand aus Sicht der SSD: 64 x 1024 x 1000000 = 65 536 000 000 Byte = 61,03 GB.

Dass mehrere Aktionen gesammelt und in Transaktionen in den Storage gepackt werden hat damit null zu tun. Das senkt schlichtweg den CPU Overhead ab, ändert aber an der Art wie die Daten auf der Festplatte arangiert sind gar nichts.
 
Zuletzt bearbeitet:
 
Zuletzt bearbeitet:
@dgschrei: Ich schreib von Storage Tiers und du schreibst von einem direkten Speichern in die SSD als letztendlicher Speicher. Das ist doch ein Riesenunterschied. Deinen amazon-Anwendungsfall würde man nicht so lösen, wie du es beschreibst.

Write Amplification ist bekannt, Hersteller müssen dies aber bereits berücksichtigen wenn sie eine Warranty auf "Petabytes Written" geben. Sie verkaufen Laufwerke, die eben auch für Datenbanken häufige eingesetzt werden und können nciht sagen, dass ihre Warranty nur für große Zugriffe gilt.

Da wird in einer bereits bestehenden Zeile einer Datenbank eine einzelne Zahl umgeändert. ... Die muss man eben an dieser Stelle ändern. Kein Datenbanksystem der Welt, packt die Änderung an eine andere Stelle innerhalb des Speichers,
Allein wenn du ein WAFL -Filesystem dazwischen hast,w eil man Netapp-Storage einsetzt, liegt die Information schon deswegen an einer anderen Stelle, auch wenn es für die Datenbank nicht so aussieht (diese muss daher auch keine Querverweise führen).
 
Zuletzt bearbeitet:
Für Notebooks sicherlich nichts, aber für den heimischen Rechner mit passendem Controller sicherlich durchaus machbar. Ich habe selbst damals, wo jeder Hans IDE Festplatten im Computer hatte, SCSI Wide und UltraWide dank Adaptec Controller im PC gehabt und die waren für damalige Verhältnisse schon flott unterwegs. Sicherlich kostet der Spasse in paar Euro mehr, die Frage ist halt nur obs Sinn macht bzw. sind die SAS Festplatten auch flott unterwegs ?
 
Nightmare25 schrieb:
Für Notebooks sicherlich nichts, aber für den heimischen Rechner mit passendem Controller sicherlich durchaus machbar. Ich habe selbst damals, wo jeder Hans IDE Festplatten im Computer hatte, SCSI Wide und UltraWide dank Adaptec Controller im PC gehabt und die waren für damalige Verhältnisse schon flott unterwegs. Sicherlich kostet der Spasse in paar Euro mehr, die Frage ist halt nur obs Sinn macht bzw. sind die SAS Festplatten auch flott unterwegs ?

SCSI hatte ich damals auch, ich fands aber schrecklich. Umständlich einzurichten, inkompatibel weils keiner sonst hatte, die Platten waren Laut wie Düsenjets. Ich hatte eine 10.000er die kam wirklich auf über Akkuschrauberlautstärke. Gräßlich war das. Als die Scanner besser wurden und nicht mehr über SCSI angeschlossen werden mussten flog der ganze Dreck raus und ich war happy.

Heute braucht niemand mehr sowas da eine SSD 99,9% der privatuser mehr als ausreicht und in punkto speed diese Platten bei weitem übertrifft.
Ist eben das einzige was solche HDDs noch rechtfertigt: Permanente Schreibvorgänge. Billiger als SSDs werden die nicht unbedingt sein. Spielt aber da wo sie eingesetzt werden auch nicht wirklich eine Rolle.
 
@Redaktion:

Wer war denn der Verfasser der News?

Die Western Digital Tochter HGST baut mit der Ultrastar-C15K600-Serie sein Angebot an Festplatten für Server, Blades und Storage Arrays im kleinen Formfaktor aus.

Irgendwie ist das doch das falsche Pronom?! ... "Sie baut IHR Angebot aus."

zum Thema: HDDs sind einfach schon sehr weit entwickelt. die Technik wird ja im Groben schon seit über 30 Jahren genutzt. SSDs sind zwar auch schon ne Weile alt, aber doch bei Weitem nicht so "erforscht" wie die HDDs.

Eine RAM-based-SSD wäre mal wieder was. Das würde zwar wie früher auch heute noch den Gegenwert eines Kleinwagens bedeuten, aber sie wäre unschlagbar schnell - zumindest im Betrieb. Boot und Shutdown würden leider etwas länger dauern. ^^
 
Nightmare25 schrieb:
Sicherlich kostet der Spasse in paar Euro mehr, die Frage ist halt nur obs Sinn macht bzw. sind die SAS Festplatten auch flott unterwegs ?
Eins kann ich dir ganz sicher sagen: die Dinger sind laut unterwegs, und zwar sehr!

Im Serverraum ist es sowieso dröhnend laut, solche Platten sind also, zusätzlich zu der von sich aus hohen Umdrehungszahl, auch überhaupt nicht auf Lautstärke optimiert, sondern nur auf Leistung. Diese Teile möchte man ganz sicher nicht in einem Desktoprechner unterm Schreibtisch stehen haben, da bin ich mir ziemlich sicher! :)
 
Lilzycho schrieb:
Steht da doch. Für server, blades und storage arrays. Ich bezweifle, dass viele laptops eine sas schnittstelle haben.
Die sibd einfach nix für heimnutzer.


Außerdem passen in Notebooks lediglich Festplatten mit max. 9,5 mm Bauhöhe!
Ergänzung ()

Nightmare25 schrieb:
(...) sind die SAS Festplatten auch flott unterwegs ?
Sind sie, hier macht es nicht eine Platte allein, sondern die Masse. Du kannst bspw. bei einem NetApp Storage 26 SAS Platten pro Raidgruppe haben. Das heißt, es wird immer mit 26 Platten zeitgleich gelesen und geschrieben. Mehrere Raidgruppen zusammen bilden dann das Aggregat in dem die Volumes liegen.
Hier wird dann nacheinander also Seriell zugegriffen.

Werden also Daten geschrieben, wird zeitgleich auf die ersten 26 Platten geschrieben (rg0) dann auf die nächsten 26 (rg1) usw....
 
Zuletzt bearbeitet:
Zurück
Oben