Wie teste ich Laufwerke ala CB?

Weby

Lt. Commander
Registriert
Feb. 2009
Beiträge
1.431
Hallo Leute,

ich habe einige Hardware Maschinen bei uns auf der Arbeit visualisiert und habe mir eine IBM Maschine mit M5014 RAID Controller für Testzwecke fertig gemacht. Das Betriebssystem und alle Firmwares habe ich bereits auf den neusten Stand gebracht.

Ich werde mitt 6x Samsung 850 PROs einige Tests durchzuführen. Ich habe vor einmal die Performance im RAID10 mit 4 und 6 Laufwerken zu messen. Darüber hinaus einmal die Performance mit 3, 4, 5 und 6 Laufwerke im RAID5. Zusätzlich einmal mit und ohne Cache. Ich warte derzeit nur noch auf die fehlenden TX-Bits, damit ich die Festplatten-Rahmen umschrauben kann.

Diese Zeit wollte ich nutzen mich einmal mit dem Thema Auswertung von IOmeter vertraut zu machen. Einige Vorlagen für z.B. VMware Umgebung hab eich bereits. Nur wie geht z.B. CB hier genau vor und wertet die Daten aus? Muss man das wirklich so mühselig von Hand machen? Hat jemand noch Tipps oder IOmeter Profile die ich verwenden kann/sollte? Immerhin sollte ich verschiedene Szenarien wie Webserver, Fileserver und Datenbankserver abbilden.

Vielen Dank im Voraus für eure Ratschläge :)
 
Wenn du eine Serverumgebung(File-, Web- oder Datenbankserver) mit Desktop-SSDs betreiben willst, werden dir die schneller wegsterben als du gucken kannst. Die SSDs die du angibst sind dafür nicht dafür ausgelegt um 24/7 im Dauerbetrieb zu sein. Für eine solche Umgebung solltest du nach Business-SSDs gucken, entscheidend ist dafür vor allem der DWPD-Faktor. Der gibt an, wie oft die Platte pro Tag vollständig beschrieben werden kann. Wir haben SANDISK SSDs im Einsatz, die sind zur Zeit recht erfolgreich am Markt (beliefern u.a. Apple im großen Stil).
 
Die Vorgängermodelle der 850 Pro haben ja eigentlich gezeigt (vor allem die 830) dass die Samsung MLC Consumer-Modelle ziemlich viel abkönnen. Jedenfalls wesentlich mehr, als die garantierte TBW.

Wenn die TBW überschritten wird, ist halt die Garantie vorbei, egal nach welcher Zeit. Deshalb geben sie ja so eine niedrige TBW für Consumer Laufwerke an, damit sich der professionelle Einsatz nicht lohnt weil eben die Garantiezeit damit massiv verkürzt wird.
 
Ch!llkroete schrieb:
Wenn du eine Serverumgebung(File-, Web- oder Datenbankserver) mit Desktop-SSDs betreiben willst, werden dir die schneller wegsterben als du gucken kannst. Die SSDs die du angibst sind dafür nicht dafür ausgelegt um 24/7 im Dauerbetrieb zu sein. Für eine solche Umgebung solltest du nach Business-SSDs gucken, entscheidend ist dafür vor allem der DWPD-Faktor. Der gibt an, wie oft die Platte pro Tag vollständig beschrieben werden kann. Wir haben SANDISK SSDs im Einsatz, die sind zur Zeit recht erfolgreich am Markt (beliefern u.a. Apple im großen Stil).

Danke für den Hinweis. Dieses ist mir bereits bekannt. Es geht ja auch nur um die Test Profile, nicht darum dergleichen damit zu betreiben. Trotzdem kann ich wiederum sagen, dass diese SSDs für kleine Umgebungen geeignet sind und jenseits der 1000 TB TBW agieren, soweit man OP wie bei den 845 DC PRO´s von ca. 27% einrichtet. Zu deinen SanDisk SSDs möchte ich dich darauf hinweisen, dass deine Business SSDs bei nur 80 TBW liegen. Da kann die Angabe der 850er schon mehr. Ich nehme mal an mit Business meinst du die SATA OEM Produkte und nicht die SAS Klasse im vierstelligen €-Bereich,

In unseren produktiven Umgebungen haben wir Enterprise SAS SSDs von Toshiba im Einsatz...die machen mal eben 10 DWPD.



Ch!llkroete schrieb:
War ja auch nur eine Anmerkung. Hier noch 2 interessante Artikel:

http://www.it-business.de/komponenten/ssd/articles/409361/index3.html

http://www.it-business.de/komponenten/ssd/articles/409448/

Wäre cool, wenn du nach ein paar Monaten im Betrieb einfach mal berichtest ;-)

Viel Erfolg, Gruß die Ch!llkroete


Auf jeden Fall. Ich habe von Fujitsu Siemens tolle Dokumente bezüglich alles was mit Server SSDs zu tun hat durchleuchtet. Hier waren sogar Rechenbeispiele, wie man mit vielen günstigeren SSDs genauso gut fährt wie mit wenig kleinen teuren Schreiblastigen SSDs. So bin ich auch auf diesen Test gekommen. Wir haben wieder 30x 850 PROs für unsere internen Kunden bestellt, so dass ich mir davon 6 zum testen ausleihen werde.

Die Dokumente von FJS heißen wp-solid-state-drives-faq-ww-de, wp-raid-controller-performance-2013-ww-de und wp-performance-report-primergy-pcie-ssd-iodrive2-ww-de


highks schrieb:
Die Vorgängermodelle der 850 Pro haben ja eigentlich gezeigt (vor allem die 830) dass die Samsung MLC Consumer-Modelle ziemlich viel abkönnen. Jedenfalls wesentlich mehr, als die garantierte TBW.

Wenn die TBW überschritten wird, ist halt die Garantie vorbei, egal nach welcher Zeit. Deshalb geben sie ja so eine niedrige TBW für Consumer Laufwerke an, damit sich der professionelle Einsatz nicht lohnt weil eben die Garantiezeit damit massiv verkürzt wird.

Die 830er werden sogar noch in einem SAN verwendet! Der Newcomer Pure Storage setzt in seinem All-Flash Array auf Consumer SSDs und verbaut hier die 830er. Jede glich zwei Enterprise SAS SSDs dienen als NVRAM.
 
Zuletzt bearbeitet:
Weiß nicht ob es aktuell noch nennenswerte Unterschiede macht .. zu letzt habe ich mich damit vor einigen Jahren beschäftigt ...
Aber abgesehen vom Cache solltest du auch ein Auge auf die Stripe Größe richten.
Je nach RAID Nutzung/Einsatzzweck erzielen Anpassungen der Stripe Größe (zB 64, 128, 256, ..) unterschiedliche Ergebnisse. Vor allem im Enterprise Bereich nennenswerte.
http://blog.igics.com/2013/06/calculating-optimal-segment-size-and.html

viel spazz .. =)
 
x-sector schrieb:
Weiß nicht ob es aktuell noch nennenswerte Unterschiede macht .. zu letzt habe ich mich damit vor einigen Jahren beschäftigt ...
Aber abgesehen vom Cache solltest du auch ein Auge auf die Stripe Größe richten.
Je nach RAID Nutzung/Einsatzzweck erzielen Anpassungen der Stripe Größe (zB 64, 128, 256, ..) unterschiedliche Ergebnisse. Vor allem im Enterprise Bereich nennenswerte.
http://blog.igics.com/2013/06/calculating-optimal-segment-size-and.html

viel spazz .. =)

Jes habe schon gelesen, dass bei RAID 0 16 kb Stripes und im RAID 5 128 kb Stripes am Besten sein soll. Ich werde mal die RAID5 Stripes auf unseren IBM V5000 überprüfen. Danke für den Link ;)

Den Cache sollte man in jedem Fall beim HW Controller abschalten. Dieser ist oft zu langsam um mit den SSDs mitzuhalten. Ich weiß jetzt aber nicht wie das mit neuen SAS 12 GBit/s Controllern mit 4 GB FBWC ist.
 
.. stripe size wählst du nicht nur nach dem RAID, sondern auch welche Art von Dateien darauf bewegt werden.
Hier wirst du unterschiedliche Empfehlungen finden .. je nach Test bzw. Szenario des Testers.
 
Weby schrieb:
Zu deinen SanDisk SSDs möchte ich dich darauf hinweisen, dass deine Business SSDs bei nur 80 TBW liegen

Nope, wir haben die SANDISK Optimus Eco SAS SSD (2 TB) im Einsatz. Die macht 1 DWPD ;)
 
x-sector schrieb:
.. stripe size wählst du nicht nur nach dem RAID, sondern auch welche Art von Dateien darauf bewegt werden.
Hier wirst du unterschiedliche Empfehlungen finden .. je nach Test bzw. Szenario des Testers.

Ich guck auf jeden Fall wie das beim SAN gehandelt wird. Hatte bis jetzt nur mit 64 kb Applikationen zu tun.

Ch!llkroete schrieb:
Nope, wir haben die SANDISK Optimus Eco SAS SSD (2 TB) im Einsatz. Die macht 1 DWPD ;)

Also Enterprise...bei Business dachte ich an die X210 (Auf Langlebigkeit getrimmte Extreme II für den OEM Markt).
 
Zuletzt bearbeitet:
Ch!llkroete schrieb:
Desktop-SSDs betreiben willst, werden dir die schneller wegsterben als du gucken kannst.
Bei der 850 Pro mit ihrem VNAND (also sehr haltbarem 3d-NAND) glaube ich das nicht, die dürfte mache Enterprise SSD überleben die mit 1DWPD (Drive Write Per Day, also einmal pro Tag die Nutzkapazität komplett schreiben) oder weniger angegeben wird, wenn man zumindest 20 bis 25% OP einplant. Dann hat die auch eine sehr gute Steady-State Performance und schlägt da sogar manche Enterpirse SSD.
Ch!llkroete schrieb:
Die SSDs die du angibst sind dafür nicht dafür ausgelegt um 24/7 im Dauerbetrieb zu sein.
Jede SSD verträgt 24/7 Betrieb, sogar besser als das ständige Ein- und Ausschalten. Da drehen sich ja keine menchanischen Teile, die 24/7 Zulassung ist also egal. Wichtiger wäre eher schon die Full-internal-Datapatch-Protection die bessere Enterprise SSDs i.d.R. haben, von den Consumer SSDs aber wohl nur die Intel 730 und 750, die ja eigentlich Consumerausführungen von Enterprise Modellen sind und von den Featuren her der DC S3500 bzw. DC P3500 entsprechen.
Ch!llkroete schrieb:
Für eine solche Umgebung solltest du nach Business-SSDs gucken, entscheidend ist dafür vor allem der DWPD-Faktor.
Weißt Du welche Workload der TE haben wird? Außerdem kann es durchaus wirtschaftlicher sein eine SSD für nur 2 oder 3 Jahre Nutzung zu kaufen und dann auf den Preisverfall zu hoffen und sich die nächste vom gesparten Geld zu kaufen als gleich auf eine teure Enterprise SSD zu setzen die 10 Jahren halten könnte, aber nach 5 Jahren sowieso zu klein geworden oder aufgrund eines anderen Probleme als verschliessener NANDs ggf. doch ausfällt.
Ch!llkroete schrieb:
Wir haben SANDISK SSDs im Einsatz, die sind zur Zeit recht erfolgreich am Markt (beliefern u.a. Apple im großen Stil).
Das alleine sagt nicht viel und Samsung dürfte Apple viel mehr SSDs leifern als SanDisk, Samsung ist Marktführer und macht doppelt so viel Umsatz mit SSDs als SanDisk. Eine Enterprise SSD wäre aber ggf. wegen der Features gegenüber einer Consumer SSD durchaus sinnvoll, nur sind die eben auch teurer und wenn die Datensicherheit schon durch die Redundanz im RAID erzielt wird....
 
Ich habe es nun bereits mit dem M5014 und dem M5015 mit jeweils der neusten Firmware probiert. Leider bekomme ich nicht mehr Durchsatz als 789 Mb/sec. Egal ob nur 4 oder 6 Platten und mit diversen Einstellungen. Irgendwo steckt der Flaschenhals.
 
In welchem Slot in welchem Board steckt der Controller den? Die 789MB/s könnten zwar ein internes Limit des Controller sein, es könnte aber auch das Limit in einem PCie 1.0 x4 Slot sein, also einem Slot mit Lanes vom Chipsatz bei einem alten Chipsatz bis einschl. Serie 50 von Intel.
 
Holt schrieb:
In welchem Slot in welchem Board steckt der Controller den? Die 789MB/s könnten zwar ein internes Limit des Controller sein, es könnte aber auch das Limit in einem PCie 1.0 x4 Slot sein, also einem Slot mit Lanes vom Chipsatz bei einem alten Chipsatz bis einschl. Serie 50 von Intel.

Im Server ist extra ein PCIe x8 nur für den RAID Controller. Diverse andere Threads mit Screenshots beweisen, dass der Controller mehrere Gb/sec übertragen kann.
 
Das beantwortet jetzt die Frage nicht wirklich, zumal es keine PCIe Slots nur für RAID Controller gibt, die PCIe Slots sind eigentlich immer mehr oder weniger universell oder eben für Grakas gedacht. Bei einigen Boards/Chipsätzen machen I/O Controller in den Slots für Graks Probleme oder laufen nicht mit der gleichen Geschwindigkeit. Schau mal mit HWInfo wie die Anbindung der Karte in dem Slot konkret ist.
 
Holt schrieb:
Das beantwortet jetzt die Frage nicht wirklich, zumal es keine PCIe Slots nur für RAID Controller gibt, die PCIe Slots sind eigentlich immer mehr oder weniger universell oder eben für Grakas gedacht. Bei einigen Boards/Chipsätzen machen I/O Controller in den Slots für Graks Probleme oder laufen nicht mit der gleichen Geschwindigkeit. Schau mal mit HWInfo wie die Anbindung der Karte in dem Slot konkret ist.

Der PCIe Slot für den Controller ist exklusiv platziert, so dass gar keine andere Karten dort verwendet werden kann.

Die Infos aus HWInfo sagen:

Max Link: 8x
Current Link: 4x

Das sind bei PCIe 4x aber immer noch 2000 MB/s und sollte daher ausreichen um höhere Ergebnisse zu erzielen.


\\EDIT: Ein umflashen auf den originalen LSI 9260-8i brachte leider auch keine Lösung.
 
Zuletzt bearbeitet:
Und welche Geschwindigkeit haben diese 4 PCIe Lanes? Wenn es nur 2.5Gb/s Lanes sind, würde es passen und bei den älteren Chipsätzen bis einschl. 50er Serie waren die PCIe Lanes bei Intel nur solche mit 2.5Gb/s, auch wenn Intel da gerne 5Gb/s schreibt, weil ja PCIe in beiden Richtungen gleichzeitig Daten übertragen kann. Wenn Du aber nichts wirklich antworten willst oder kannst um welches Board es sich handelt und auch nicht sehen kannst wie schnell die Lanes sind, dann ist hier Ende für mich.
 
Holt schrieb:
Und welche Geschwindigkeit haben diese 4 PCIe Lanes? Wenn es nur 2.5Gb/s Lanes sind, würde es passen und bei den älteren Chipsätzen bis einschl. 50er Serie waren die PCIe Lanes bei Intel nur solche mit 2.5Gb/s, auch wenn Intel da gerne 5Gb/s schreibt, weil ja PCIe in beiden Richtungen gleichzeitig Daten übertragen kann. Wenn Du aber nichts wirklich antworten willst oder kannst um welches Board es sich handelt und auch nicht sehen kannst wie schnell die Lanes sind, dann ist hier Ende für mich.

Es handelt sich um ein IBM x3650 M3 (7945) mit zwei six-core CPUs.
Der RAID Controller befindet sich oben links über der schwarzen Plastik Box (Systemboard):
$_35.JPG
 
Zurück
Oben