News Micron bringt P410m-SSD mit SAS-Schnittstelle

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.856
ganz abgesehen von der (angeblichen) Haltbarkeit hauen mich jetzt die reinen theoretischen Werte, speziell die IOPS, nicht vom Hocker, also von SAS erwarte ich mir normal mehr, schließlich kosten die entsprechenden "Platten" in der Regel nicht gerade wenig.

Aber insgesamt ist der SSD-Markt im SAS-Bereich nicht wirklich groß, insofern "besser als nix"
 
Du zahlst hier auch für Garantie und Haltbarkeit, nicht unbedingt für viel mehr Speed als im Consumersegment. Wobei die IOPs selbst noch nicht soviel aussagen, wie sich die SSDs in einer realen Umgebung schlagen, da können durchaus Firmwareoptimierungen auf gängige Server/Workstationtasks drin stecken :)
 
Raptor2063 schrieb:
ganz abgesehen von der (angeblichen) Haltbarkeit hauen mich jetzt die reinen theoretischen Werte, speziell die IOPS, nicht vom Hocker

Was ist an den IOPs denn schlecht?
Was müsste man mit einem Computer anstellen, um diese IOPs ausreizen zu können?
Die mehrere zehntausend IOPs pro Sekunde reichen doch wohl auch für Datenbankserver mit vielen gleichzeitigen Zugriffen völlig aus, ohne dass man da einen Engpass bemerken würde.
 
Loadverbrauch wird mit <9 Watt angegeben, soll das Ding also vermutlich um die 6-8 in dem Szenario verbraten, wenn sie es so spezifisch angeben?
 
Raptor2063 schrieb:
die reinen theoretischen Werte, speziell die IOPS, nicht vom Hocker, also von SAS erwarte ich mir normal mehr, schließlich kosten die entsprechenden "Platten" in der Regel nicht gerade wenig.
Du vergleichst da ein wenig Äpfel mit Birnen, denn im Entersprise Segment geben seriöse Anbieter nicht irgendwelche traumhaft hohen IOPS an, die dann doch nur kurz im Neuzustand, womöglich nur über einen kleinen Teil der Kapazität und gar nur mit extrem komprimierbaren Daten erreicht werden und dann vielleicht er wieder nach einer längeren Erholungspause wieder. Auf solche kurzen Spitzenleistungen sind diese SSDs auch nichts optimiert, sondern eben darauf die Performance möglich konstant anzubieten, weshalb auch die seq. Transferraten so gering sind, denn die braucht in den Segment sowieso niemand.

Schau Die mal diesen Artikel von Anand zum Verhältnis von Spare Area and Performance Consistency an. Da sieht man gut, wie massiv die IOPS schon nach recht kurzer Zeit einbrechen können, wenn man die SSD dauerhaft mit Random Write belastet und welchen Einfluss das Overprovisioning darauf hat, was ja bei den Enterprise SSDs besondern massiv betrieben wird.
 
Zuletzt bearbeitet:
jetzt hängt euch nicht zu sehr an meinen Aussagen auf, mir ist durchaus bewußt, dass SAS keine Consumer-Schnittstelle ist und es hier auf ganz andere Sachen ankommt. Trotzdem finde ich die Werte eben nicht überragend, bei Festplatten hat man eben abgesehen von der Haltbarkeit schon auch einen Unterschied in diversen technischen Daten im Vergleich zu Consumer-Produkten gehabt.
Und dass viele Consumer-SSD quasi überzüchtet sind um einfach auf irgendwelchen theoretischen Höchstwerte zu kommen ist auch nicht neu, ebenso, dass sie häufig nur kurzzeitig Spitzenleistung bringen.
 
Das ist eben wie der Vergleich eines Omnibusses mit einem PKW. Wenn es darum geht 2 Leute von eines Stadt in die nächste zu bringen, gewinnt der Pkw weil er viel schneller auf der Autobahn unterwegs ist. Geht es darum 2 Dutzend Leute auf der Strecke zu befördern, gewinnt der Bus, auch wenn der PKW die ersten Passagiere schneller abliefert, so warten die doch eine ganze Weile bis sie dran kommen. Da man privat eben nicht so viele Leute zu befördern hat, kauft man einen PKW, während ein Fuhrunternehmer halt Busse einsetzt, weil deren Arbeitslast eine andere ist.
 
Zurück
Oben