News Micron 9300 NVMe SSD: Mehr Speicher, mehr Effizienz und niedrigere Latenzen

Client SSD bedeutet nicht Consumer SSD, sondern eine SSD für PCs, die gibt es ja auch von OEMs und an OEMs verkauft Micron unter eigenem Label. Client ist das Gegenteil von Enterprise und nicht von Consumer, die Consumer SSDs sind für private Endkunden und immer Client SSDs.
 
Atkatla schrieb:
Die IOPS-Last von Datenbanksystemen steigt auch nicht an, nur weil der Storage darunter schneller wird. Die Last hängt von den Anfragen ab, und die multiplizieren sich dann nicht auf magische Weise. Richtig ist nur, dass man mehr Anfragen stellen kann, ohne dass die Latenzen aus dem Ruder laufen. Eine solche SSD (bzw ein Array aus diesen) ist ohnehin nicht unter Volllast, wenn sehr anspruchsvolle Datenbanken drauf laufen. Denn diese laufen auf Arrays und es wird ohnehin möglichst viel im Memory abgearbeitet. Wenn Disk Busies Richtung 90 -100% gehen, dann ist das System falsch konzipiert.

Das Phänomen hast du nur, wenn du Datenbanken hast, die nicht unter Dauerlast stehen.
Wir haben hier erst kürzlich eine Datenbank auf von einer Hardware aus 2014 auf neue Hardware + neues Storage umgezogen.
Die 2 TB RAM und die 96 POWER 7+ Cores haben sich gelangweilt, während der Storage 24/7 am Kotzen war bei ca. 500.000 bis 600.000 IOPS. Läuft jetzt mit einem reinen SSD Storage mit über ~1.200.000 IOPS und ist immer noch permanent am Kotzen, für mehr als zwei lausige XP7 war aber kein Geld da und Datenbanken dieser Größenordnung gibt es zuhauf.
Bei den wenigsten richtig großen Datenbanken ist CPU und RAM ausschlaggebender Faktor, die restliche Hardware wartet dann halt einfach schneller auf den Storage.

EDIT:
Tatsächlich habe ich bislang nur eine einzige große Datenbank (> 60 TB Speicherplatz) gesehen, wo nicht das Storage der Flaschenhals war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: drmaniac
textract schrieb:
Das Phänomen hast du nur, wenn du Datenbanken hast, die nicht unter Dauerlast stehen.
Auch kontinuierlich belastete Datenbanken streben nicht gegen unendlich viele OPS pro Sekunde. Die Anfragen müssen doch aber von irgendetwas erzeugt, verarbeitet werden und irgendeine Ursache haben. Die Anfragen erzeugen sich ja nicht von selbst (Benchmarks und synthetische Abarbeitungsprozesse mal ausgenommen, die sind eher die Ausnahme).
textract schrieb:
Die 2 TB RAM und die 96 POWER 7+ Cores haben sich gelangweilt, während der Storage 24/7 am Kotzen war bei ca. 500.000 bis 600.000 IOPS. Läuft jetzt mit einem reinen SSD Storage mit über ~1.200.000 IOPS und ist immer noch permanent am Kotzen, für mehr als zwei lausige XP7 war aber kein Geld da und Datenbanken dieser Größenordnung gibt es zuhauf.
Ich bin eher bei Netapp zu Hause als bei HP, aber bist du dir sicher dass wirklich die SSDs der Bottleneck sind und nicht die XP7? Ich kann unsere Storageknoten auch unter Vollast bekommen und dennoch trödeln die Disk Busy-Werte der einzelnen SSDs in den Arrays unter 10% rum. Was ja auch ausreicht, um in den 7-stelligen IOPS-Bereich zu kommen. Wieviele SSD-Datenträger habt ihr in den XP7 Arrays?
 
Atkatla schrieb:
Ich bin eher bei Netapp zu Hause als bei HP, aber bist du dir sicher dass wirklich die SSDs der Bottleneck sind und nicht die XP7? Ich kann unsere Storageknoten auch unter Vollast bekommen und dennoch trödeln die Disk Busy-Werte der einzelnen SSDs in den Arrays unter 10% rum. Was ja auch ausreicht, um in den 7-stelligen IOPS-Bereich zu kommen. Wieviele SSD-Datenträger habt ihr in den XP7 Arrays?

Ich kann dir leider nicht sagen, wie viele Disks drin sind, habe auf das Storage keinen Zugriff.
Wir hatten auch zuerst das Sub-, oder Bussystem im Blick, aber sowohl auf Maschinenseite, als auch auf SAN Seite sind die HBAs nicht ausgelastet, wir schreiben gerade einmal 10 bis 12 GB/s bei 8 *16 GBit/s Adaptern.
Was wir aber deutlich sehen können auf OS Seite sind hohe Zugriffszeiten auf den einzelnen Disks von teilweise über 5 MS und das obwohl jedes FS über alle Disks gestripet ist und der LVM Header auf jeweils einer anderen Disk liegt.
Das Performanceproblem kommt definitiv aus der XP 7, aber der Storage Support wurde mit outsourced und es wurde kein Level 3 eingekauft .... Idioten.

Aber wie schon gesagt: Performanceprobleme der Art, habe ich schon öfter erlebt und die kamen bislang nahezu jedes Mal aus dem Storage. Die XP7 ist ja aber auch nicht besonders schnell im Vergleich zu einer Exadata, oder einer großen EMC Maschine ...
 
Micron muss mal wieder übertreiben...
Aber finde ich gut, sie kriegen es immerhin gebacken.
 
slashchat schrieb:
gibts da eine adapter fuer den m2 slot
Ja, der ist bei einigen U.2 Ausführungen der Intel 750 und Optane 900P/905P auch dabei und kann auch einzeln bei Intel bestellt werden.
slashchat schrieb:
hab grad gesehen es ist ein u2 minisas port
Vorsicht! Man benutzt zwar bei U.2 die Stecker die auch für SAS genommen werden, also SFF-8643 auf der Seite des Mainboards und SFF-8639 beim Laufwerk, aber die Signale sind andere und die U.2 SSDs funktionieren nur, wenn dort auch PCIe Lanes anliegen! Die laufen also nicht an normalen SAS HBAs/RAID Controller, es gibt allerdings ein paar ganz teure Modelle, die auch beiden können.
 
MichaG schrieb:
Die Micron 9300 Max kostet etwa 900 Euro (3,2 TB) bis 3.100 Euro (12,8 TB) und die Micron 9300 Pro kostet etwa 860 Euro (3,84 TB) bis 2.960 Euro (15,36 TB).

Ausnahmsweise sind die Preise für Enterprise-SSDs gar nicht sooo abgehoben. Interessant.
 
  • Gefällt mir
Reaktionen: Salutos und -Ps-Y-cO-
Das die alten Preise bereits unterboten werden ist schon mal sehr gut. Es gäb sogar PCIe auf U.2 Adapter: https://www.amazon.de/U-2-auf-PCIe-Adapter-NVMe/dp/B072JK2XLC
Sowas fände ich sogar interessant, würde sich so ein Laufwerk bei rund 700€ befinden. Schade dass Micron hier keine günstigere NVMe Schiene hat. Die 5000er Serie basieren ja allesamt auf SATA. Dazwischen gibts ja nichts.
 
Ja was NVMe angeht, ist Micron irgendwie verschlafen, auch die Tochter Crucial hat mit der P1 ja nur eine extrem Budget NVMe SSD, aber eben keine die auch in der Liga der Performance Modelle mitspielen kann. Dabei kann man noch einen guten Aufpreis für solche schnellen Consumer NVMe SSD erzielen.
 
Intels 2TB 660p ist seit Monaten die Interessanteste was Preis und Leistung betrifft.
 
-Ps-Y-cO- schrieb:
Intels 2TB 660p ist seit Monaten die Interessanteste was Preis und Leistung betrifft.
Der Vergleich hinkt ein bisschen.
Die 660p sehe ich allerdings im Consumer Bereich angesiedelt, nicht im Enterprise Bereich.
Für den Enterprise Bereich bieten die Micron 9300 Modelle - aktuell - ein ordentliches Preis-/Leistungsverhältnis!
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
-Ps-Y-cO- schrieb:
die Interessanteste was Preis und Leistung betrifft.
Also ich Preis Kapazität sagen, denn die Leistung ist allenfalls leer gut, wenn sie ihren vollen dynamischen Pseudo-SLC Cache zur Verfügung hat. Der ist ja bis 25% Füllstand riesig:

Intel 660p Pseudo-SLC cache_575px.png


Bei QLC ist aber nicht nur die Schreib-, sondern auch die Leseperformance im QLC Bereich geringer: Bei 4k QD1 Lesend sind es bei der 860 QVO nur 4.400 IOPS statt 7.500 aus dem Pseudo-SLC Bereich, QD32 werden im QLC sogar weniger als halb so viele IOPS lesend wie aus dem Pseudo-SLC erzielt. Anders als die 860 EVO und bei SSDs mit TLC üblich, hält die Crucial P1 die Daten aber extra lange in ihrem, bei leerem Laufwerk üppig dimensionierten Pseudo-SLC Schreibcache:
Die meisten Benchmarks messen daher nur die Performance des Pseudo-SLC Bereiches, was aber wenig praxisrelevant ist Die Intel 660p hat ja die gleichen NANDs und den gleichen Controller, dürfte es also auch so handhaben. Im AnandTech Storage Bench - Light schafft sie voll nur 208,6MB/s (die P1 250,1MB/s), also weniger als die MX500 und im AnandTech Storage Bench - Heavy sind es voll nur noch 158MB/s (die P1 152MB/s), die MX500 hat dann mit 235MB/s deutlich mehr und die 970 Evo muss sich mit ihren 637,8MB/s im Testfeld nur der Optane 900P (1136,7MB/s) geschlagen geben. Tweaktown hat im Review der Optane 905P 960GB sehr passend geschrieben, dass man vor allem für die Konsistenz der Performance auch bei anspruchsvolleren Workloads und auch bei voller SSD bezahlt:
 
  • Gefällt mir
Reaktionen: drmaniac
textract schrieb:
Bringt dir aber effektiv überhaupt nichts. In Systemen, wo solche SSDs zum Einsatz kommen, stehen die Datenbanken darunter immer unter Vollast, egal wie schnell der Storage ist.

Schreib doch nicht so einen Schmarrn. Drehende Platten unter Datenbanksystemen macht kein Profi mehr. In allen Belangen unterlegen, auch dein Stromverbrauch aus genannten Gründen. Du brauchst außerdem viel weniger SSDs, als Platten, um etwas zu reißen. Selbst wenn die Datenbank fast nur im 6TB Arbeitsspeicher stattfindet, mit keinem Spindelraid würdest du da eine vernünftige Leistung erreichen können.
 
3.000 EUR ist eine ganze Menge Kohle aber damit wären HDDs auch in Sachen Kapazität abgehängt. Angesichts gähnender Leere in 2,5" SATA SSDs bin ich aber von der Höhe von 15 mm überrascht.

Ich bin gespannt wie viel Speicher wir in 30 Jahren für 1.000 EUR bekommen und was wir über heutige Preis/Leistung sagen werden.

Hoffentlich nicht, "nur noch etwas Geduld und wir knacken die 10 ct pro GB Marke". :)
 
15mm Bauhöhe sind bei 2.5" Enterprise Laufwerken, HDDs wie SSDs, die übliche Bauhöhe.
 
jemand84 schrieb:
Schreib doch nicht so einen Schmarrn. Drehende Platten unter Datenbanksystemen macht kein Profi mehr. In allen Belangen unterlegen, auch dein Stromverbrauch aus genannten Gründen. Du brauchst außerdem viel weniger SSDs, als Platten, um etwas zu reißen. Selbst wenn die Datenbank fast nur im 6TB Arbeitsspeicher stattfindet, mit keinem Spindelraid würdest du da eine vernünftige Leistung erreichen können.

Wo habe ich denn gesagt, dass ich normale Spindelplatten einsetzen würde?
 
Zurück
Oben