News Toshiba PM5: SAS-SSD mit 30 TByte und 3.350 MB/s via MultiLink

textract schrieb:
Zum einen finde ich die Datenübertragungsrate von gerade mal 3,3 GB bei 30 TB viel zu wenig und zum anderen machen die SAN Subsysteme da sowieso nicht mit, wenn mal 300 solcher Disks in einem SAN stecken....sehe trotzdem die Daseinsberechtigung der Disk noch nicht.
Eine solche Disk passt gut, wenn du große Datenmengen hast, wo du mit möglichst geringer Latenz kleinere Datenblöcke rauspicken oder reinschreiben musst. Warum sollte eine Datenübertragungsrate von > 3GByte/s pro 30 TB zu wenig sein? Das hängt doch letztlich von der Anwendung ab. Die wenigsten Storagesysteme müssen kontinuierlich hohe sequentielle Lasten abarbeiten. Meistens geht es um Random I/O mit geringerem Durchsatz.
 
Atkatla schrieb:
Eine solche Disk passt gut, wenn du große Datenmengen hast, wo du mit möglichst geringer Latenz kleinere Datenblöcke rauspicken oder reinschreiben musst. Warum sollte eine Datenübertragungsrate von > 3GByte/s pro 30 TB zu wenig sein? Das hängt doch letztlich von der Anwendung ab. Die wenigsten Storagesysteme müssen kontinuierlich hohe sequentielle Lasten abarbeiten. Meistens geht es um Random I/O mit geringerem Durchsatz.

Ich könnte dir jetzt den Gegenbeweis geben, das verstößt aber gegen unsere Datenschutzbestimmungen.
Wir haben hier mehrere Datenbankserver, die netto mit 20 GB/s und mehr schreiben und lesen mit mehreren 100.000 IOPS
 
textract schrieb:
Zum einen finde ich die Datenübertragungsrate von gerade mal 3,3 GB bei 30 TB viel zu wenig und zum anderen machen die SAN Subsysteme da sowieso nicht mit, wenn mal 300 solcher Disks in einem SAN stecken.
Irgendwo hat man immer eine Flaschenhals und muss einen Kompromiss mache. Wenn man die ganze Kapazität in kurzer Zeit seq. lesen oder beschreiben können möchte, dann muss ggf. mehrere PCIe SSDs mit geringerer Kapazität nehmen, bekommt dann aber nicht so viel Kapazität realisiert. Wieso erwarten die Leute immer von einer HW für alle denkbaren Anwendungen perfekt zu passen? Sowas gibt es doch sowieso kaum mal und daher muss man eben immer die für die jeweilige Anwendung am besten passende HW auswählen. Wer 30TB bei 3,3GB einmal komplett lesen will, braucht nun einmal 2,5 Stunden, aber andererseits gibt es nur wenige Alternativen die dies noch schneller können.
 
textract schrieb:
Atkatla schrieb:
...Die wenigsten Storagesysteme müssen kontinuierlich hohe sequentielle Lasten abarbeiten. Meistens geht es um Random I/O mit geringerem Durchsatz.
Ich könnte dir jetzt den Gegenbeweis geben, das verstößt aber gegen unsere Datenschutzbestimmungen.
Wir haben hier mehrere Datenbankserver, die netto mit 20 GB/s und mehr schreiben und lesen mit mehreren 100.000 IOPS
Gegenbeweis für was? Habe ich irgendwo geschrieben, dass es kein anderes als mein Beispielszenario gibt?

Ironischerweise: wenn der Storage für euren Datenbankserver z.B. ein kleines Array aus 100 Datenträgern nutzt, dann sind die 20 GB/s gerade mal 200 MB/s pro Datenträger (Parity Devices mal ausser acht gelassen). Und angenommene 400.000 IOPS auf 20GB/s sind gerade mal eine mittlere Größe von 50 Kilobyte pro Operation. Dein Szenario wäre dann ebenfalls viel Random I/O mit geringem Durchsatz, lediglich der Gesamtdurchsatz des Arrays wäre sehr groß. (Vermutlich setzt ihr aber sogar noch deutlich mehr Datenträger für die Arrays ein, so dass der Durchsatz pro Datenträger sogar noch geringer ist. Hängt aber stark davon ab, ob bei euch Flash oder viele Platten für die IOPS sorgen.)

Zudem werden doch gerade bei großen Installationen eine Teilmenge der Read-IOPS durch vorgeschaltete Caches (Tiered Storage, (besonders schnelle)Flash Pools oder Memory des Storage-Controllers) abgefangen, so dass die Summer der von den Datenträgern geleisteten IOPS geringer ist, als dass was der Controller an den Server abgeleistet hat.
 
Zuletzt bearbeitet:
textract schrieb:
Zum einen finde ich die Datenübertragungsrate von gerade mal 3,3 GB bei 30 TB viel zu wenig und zum anderen machen die SAN Subsysteme da sowieso nicht mit, wenn mal 300 solcher Disks in einem SAN stecken.
IBM ist mit ihren 64 GBit/s FC Ports für PPC zwar auf dem richtigen weg die Festplatten, sehe trotzdem die Daseinsberechtigung der Disk noch nicht.
400.000 IOPS hören sich aber ganz gut an, mal schauen welche SANs solche Disks verbauen und wo dann der Performance-Flaschenhals wirklich steckt.

Sowas steckt man in hyperkonvergente Systeme und schmeißt den alten Tier 3-Sch**** samt SAN-Flaschenhals raus.
 
Schon stark wie die Technik Fortschritte macht. Also wie die SSD die Grenzen von HDDs überschreitet.

Wenn dann irgendwann mal die neuen HDD Techniken fertig sind. Falls es überhaupt soweit kommt. Wer weiß wie alt die aussehen gegen SSDs.

Und SSD dann die Petrabyte Grenze knacken,
 
Zurück
Oben