News Server-HDDs: Toshiba erhöht auf 2,4 TB bei 10.500 U/min

Sbibi schrieb:
@Michael: "Der Cache fast 128 MiB Daten."
-> fasst

Habe den Satz auch 2 mal lesen müssen, weil ich mich gefragt habe, was er damit meint... "fast 128MB... also nicht ganz 128MB..." bis ich dann verstanden habe, dass vom Wort fassen die Rede sein muss...
 
Anmeldeblödsinn schrieb:
Die 4500 und 4600 gibt es mit Sata und PCI-Express NVME (S und P-Serie).

Hast recht, habe ich noch nicht gesehen, häng da nicht jeden Tag drin. :)

Numrollen schrieb:
Ja zeig mir mal eine SAS SSD mit 2,1TB für den doppelten Preis? Wenn wir beim 4-6fachen Preis sind + Garantie/Bios der Hersteller für SAN Speicher sind wir beim 8fachen.

Welchen Vorteil erhoffst du dir von SAS?

Ich habe nie behauptet es gäbe eine SSD, die von den sonstigen Werten identisch zu der vorgestellten Toshiba HDD wäre, das braucht es auch nicht!

Wenn wir vor Storage reden, dann geht es heutzutage in erster Linie um zwei verschiedene Möglichkeiten - SAN oder DAS.

Bei einem SAN ist es zwar nicht irrelevant welche Kapazität die SSDs haben, aber man wird auch kaum nur eine dort einsetzen. Einen großen Vorteil beim Einsatz von SAS Platten in einem SAN sehe ich nicht (das es die gibt weiß ich). Du kannst also getrost statt 8 von den 2,4TB HDDs, 10-12 von den bereits verlinkten SATA SSDs nehmen. Für den doppelten Preis gibt es die zehnfache Leistung.

Das ein SAN oder Serverhersteller irgendwelche Platten mit eigenem Label zertifiziert und um zehnfachen Preis verkauft ist hier nicht das Thema. Auch die vorgestellten HDDs sind nicht automatisch zertifiziert. Bei Servern wäre es gar zweifelhaft SSD von Serverhersteller zu kaufen und dort nur 2-3 Jahre Garantie zu bekommen, während es von Intel 5 Jahre gibt.

Numrollen schrieb:
Das Anforderungsprofil sind virtuelle Systeme, da braucht man weder 3 Milliarden IOPS (was natürlich nicht schlecht wäre) noch kann man durchgehend mit NL Platten rumeiern die 8TB mit sich rumschleppen und dadurch die IOPS Krüppel sind. Man hat nicht unendlich Geld, also braucht man ein Kompromiss.

Das Anforderungsprofil ist sehr breit aufgestellt. VMs können Datenbanken, Terminal Server aber auch Datengräber sein.

Seit wir in der Firma praktisch nur noch Hyper-V einsetzen/verkaufen, setzen wir fast ausschließlich auf PCIe NVMe SSDs und DAS. Dank Hyper-V Replikation sind die Systeme ausfallsicher, performant und der Serverhersteller kann sich seine überteuerten HDD Aufpreise wohin stecken.

Das kann man mit Sicherheit nicht von heute auf morgen auf die gesamte Branche übertragen aber der Weg geht wieder in Richtung DAS und damit werden U.2 und PCIe SSD immer interessanter. Microsoft hat ja nicht ohne Grund Storage Spaces Direct eingeführt und VMware hat ihr vSAN. Beides macht "klassische" Storage Lösungen obsolet.
 
Zuletzt bearbeitet:
Die Sache ist die:

1. Die Raidcontroller für SSD-Verbünde sind sehr teuer und erfordern extra Lizenzgebühren
2. Die Performance von 8 SAS Festplatten im Raid 5 reicht meistens aus
3. Die meisten Raidcontroller haben 4+GB DDR3 Cache mit BBU (wirkt wie eine kleine SSD)

Und dann gibt es noch andere Faktoren die SSDs unaktraktiv machen:
- 2 SSDs fallen immer gemeinsam aus, wenn sie gleichmäßig genutzt werden (Raid 1)
- SSDs bieten nicht genügend Speicherplatz im Raid 1
- Die meisten SSDs bekommt man in x Jahren nicht mehr orginal nachgekauft
- Festplatten-Ausfälle lassen sich leichter vorhersagen (predicted failure / smart)
- SAS Rahmen für SSDs sind richtig teuer
- SSDs als Cache am Controller sind nicht ausgereift
 
Zuletzt bearbeitet:
Simanova schrieb:
Die Sache ist die:

Dass du die Sache falsch angehst....

Raid Controller dienen in erster Linie dazu Ausfälle der mechanischen HDDs zu kompensieren. Nebenbei sollen sie mit Cache und mehreren Spindeln die IOPS erhöhen.

Beides ist aber mit einer PCIe SSD obsolet. Die Wahrscheinlichkeit das eine PCIe SSD ausfällt ist ungefähr so hoch wie die, dass ein Raid Controller ausfällt und IOPS bietet jede aktuelle NVMe SSD mehr als genug. Das man die Daten trotzdem schützen muss, steht hier außer Frage. Moderne Virtualisierungslösungen haben darauf aber schon länger eine Antwort und zig Drittanbieter auch.

Wer die bisherige HDD Welt 1zu1 auf SSDs übertragen will, macht etwas falsch.

Simanova schrieb:
2. Die Performance von 8 SAS Festplatten im Raid 5 reicht meistens aus

Raid5 ist für viele Anwendungsfälle ein Katastrophe und sollte auch möglich nie mit mehr als 8 Spindeln eingesetzt werden. Eine einzelne Spindel einer 10K HDD macht vielleicht zwischen 100-150 IOPS, im Optimalfall wären hier also 1000 IOPS möglich. Eine einzelne SATA SSD (DC S3520) kann 65.000 IOPS lesen und ​17.000 IOPS schreiben und liegt damit unteren Ende der heutigen Skala.

Dein Verbund kostet mehr, leistet einen Bruchteil und fällt mit etwas Pech (Rebuild) schneller aus als eine einzelne (SATA) SSD.

Simanova schrieb:
- 2 SSDs fallen immer gemeinsam aus, wenn sie gleichmäßig genutzt werden (Raid 1)
- Festplatten-Ausfälle lassen sich leichter vorhersagen (predicted failure / smart)

Eine SSD erfasst die Menge ihres Reservespeichers und kann ihre verbleibende Lebensdauer schätzen im Gegensatz zu einer Festplatte, die bei einem Smart Fehler bereits defekte Blöcke und somit auch beschädigte Dateien hervorzaubert. Eine HDD ist alleine wegen den mechanischen Bauteile anfälliger als eine SSD, einzig die Elektronik kann natürlich bei beiden drauf gehen.
 
Zuletzt bearbeitet:
Simanova schrieb:
Die Sache ist die:

1. Die Raidcontroller für SSD-Verbünde sind sehr teuer und erfordern extra Lizenzgebühren
2. Die Performance von 8 SAS Festplatten im Raid 5 reicht meistens aus
3. Die meisten Raidcontroller haben 4+GB DDR3 Cache mit BBU (wirkt wie eine kleine SSD)

Und dann gibt es noch andere Faktoren die SSDs unaktraktiv machen:
- 2 SSDs fallen immer gemeinsam aus, wenn sie gleichmäßig genutzt werden (Raid 1)
- SSDs bieten nicht genügend Speicherplatz im Raid 1
- Die meisten SSDs bekommt man in x Jahren nicht mehr orginal nachgekauft
- Festplatten-Ausfälle lassen sich leichter vorhersagen (predicted failure / smart)
- SAS Rahmen für SSDs sind richtig teuer
- SSDs als Cache am Controller sind nicht ausgereift

1. ? Zusatzfeatures kosten bei Raidcontrollern extra, ja. Meinst du SSD-Cache? Ja, das kostet meist extra und nutzt SSD als Cache in einem HDD-Array, sonst kostet da nix extra.

2. Meh, mir nicht. Ich hab hier meistens 8x15k im Raid50 mit Cache und komme auf ca 800MB/s und kA wie wenig IOPS, da ist eine einzelne SSD schon schneller.

3. Kaum. Erst relativ neue Controller haben 4GB (Intel RS4 zb), die RS3 und die meisten LSI/Avagoklone haben 1GB, HP hat 2GB. Je nachdem wie du es einsetzt (mit read-ahead als teilweise Lesecache, nur write-back als Schreibcache) bringt das schon Einiges, tut es aber bei SSD dann nochmals mehr (habe auch einige 8xDC3520 im Raid50 mit 1GB Cache).

- Nach der Aussage müssten auch gleichzeitig genutzte Festplatten gleichzeitig ausfallen, tun sie so wenig wie SSD. Nur weil sie die gleichen Daten schreiben gibt es noch mehr Faktoren die die Lebenszeit einer HDD und einer SSD beinflussen.

- Hmm, ich hab hier 3,8TB SSD, das ist schon mal ne Ansage. Wenn man wirklich so viel Speicher braucht tuts dann auch Nearlinestorage mit 7.2K.

- Smart haben SSD auch. Man sieht im Vergleich zu Sata-HDD sogar mehr Werte. Nur die Sas-Platten können darüber hinaus noch grown defects usw. anzeigen. Von ca 80 SSD in den letzten Jahren sind 2 eingegangen und das merkte man weil sie eben verzögerte Schreiboperationen hatten, kein Deal. Ich hatte schon 15K SAS-Platten mit predictive errors die dann noch 2-3 Jahre weiterliefen und dann auch welche die defekt waren, als "certified repaired" zurückkamen und 2 Tage später wieder tot waren, alles ohne vorherige Warnung.

- SAS-Rahmen? Meinst du solche Dinger die aus Sata dann Dualport-SAS machen? https://www.ebay.de/itm/Intel-AXXTM...575808?hash=item3d4cfbce40:g:kW0AAOSwn-tZFdqe . Hatte ich damsl um ca 30 Euro nachkaufen müssen. Wenn man kein SAN hat das sich anstellt dann gehen da überall auch Sataplatten rein, so lange man nicht Sata und SAS im gleichen Array mischt.

- Wie oben geschrieben gibts das schon seit ewigen Zeiten. Zur Geschwindigkeit kann ich nix sagen, hab immer HDD oder SSD genutzt. Bietet glaub ich auch fast jeder Hersteller an.
 
xexex schrieb:
So eine Platte wird um die 500€ kosten, SSDs mit gut 10facher Leistung bekommt man knapp für das doppelte. Es ist verständlich, wenn WD hier keine Energie mehr reinsteckt.

Seagate Exos E 10E2400 2.4TB
Intel SSD DC P3520 2TB, U.2

Man müsste schon ein verdammt seltsames Anforderungsprofil haben um irgendeinen Nutzen in solchen 10K oder 15K Platten zu sehen. Günstige SATA SSDs erreichen mittlerweile auch fast das Preisniveau solcher "Performance" HDDs und bieten einiges mehr an Leistung.

Intel SSD DC S3520 1.6TB

Es geht ja nicht um Privatanwender die ein oder 2 Platten verbauen....

Innem 24er Gehäuse sind das 25% mehr Kapazität als heutige 1,8TB Server Platten.....und 24*500.- mehr ist schon ein Kleinwagen...zumal man mit modernen Storage Lösungen wie Datacore oder VSAN nur ganz wenige SSDS braucht und den Rest der Kapazität mit HDs abdeckt

Weiterer Punkt ist das man Deinen Preisvergleich im Unternehmensbereich nicht heranziehen kann...vermute mal wenn die Platte in die Konfiguratoren der Hersteller (Dell/HP/Fujitsu etc) aufgenommen worden ist wird sie mindestends das dreifache Listpreis kosten (genauso wie die SSDS aber auch).....natürlich gibts dann wieder Rabatte für Reseller und Special Kunden...aber der Geizhals/Idealo Preis ist hier keinerlei Massstab. Kein Halbwegs seriöses selbst Mittelstands Unternehmen frippelt sich selbst seine Server zusammen mit Einzelplatten aus Preisvergleichen.
 
Zuletzt bearbeitet:
Resonator schrieb:
Es geht ja nicht um Privatanwender die ein oder 2 Platten verbauen....

Diese habe ich auch nicht im Visier. Das Problem ist nur, dass diese Platten nichts halbes und nichts ganzes sind.

Brauchst du Leistung sind SSDs um Welten besser und kaum noch teurer.
Brauchst du Kapazität kannst du mit 8 Nearline HDDs die gleiche Kapazität abdecken wie mit deinem erwähnten 24er System.
Willst du eine Mischung aus beiden, hast du die Lösung doch bereits selbst genannt.

Also wofür eine HDD die weder von der Leistung noch von der Kapazität richtig mitreden kann? Klar wird Toshiba einige davon verkaufen, allerdings muss das Anforderungsprofil für sowas schon sehr speziell sein. Das andere Hersteller da nicht mitziehen, zeigt doch am deutlichsten das es nur eine Nische abdecken wird. Solche Platten kommen dann in irgendwelche SAN Systeme von Herstellern mit großen Namen, die sich die 25% mehr Kapazität vermutlich noch vergolden lassen.

EDIT:
Resonator schrieb:
Kein Halbwegs seriöses selbst Mittelstands Unternehmen frippelt sich selbst seine Server zusammen mit Einzelplatten aus Preisvergleichen.

Derzeit sieht die Sache ganz einfach aus. Die Vergoldung von "Festplatten" funktioniert mit M.2 und PCIe einfach nicht mehr. Es ist problemlos möglich auch ohne eine Spezialkonfiguration einen Server ohne Raid Controller und ohne Festplatten zu kaufen und dort M.2 und PCIe Laufwerke einsetzen. Die Garantie ist bei Intel besser als die Garantie, die ein Serverhersteller normalerweise auf die vergoldeten Festplatten bieten kann.

Beim RAM ist es übrigens genauso, Kingston bietet lebenslange Garantie auf den Speicher an. Wer zu überhöhten Preisen Speicher vom Serverhersteller kauft und sich dann mit 2-3 Jahren Garantie abspeisen lässt, sollte die Augen aufmachen.

Ganz nebenbei wird niemand gezwungen diesen Wahnsinn mitzumachen. Hersteller wie Supermicro und Infortrend bieten Server und SAN Lösungen an ohne die Kunden an bestimmte Festplatten zu knebeln. Alles in einem ändert es aber an dem Verhältnis SSD und HDD nichts. Sowohl die vorgestellte HDD als auch die Intel SSDs werden mit hohen Aufpreisen bei den Serverherstellern landen. Das macht die HDD genauso uninteressant, als würde man sie über den freien Handel beziehen.
 
Zuletzt bearbeitet:
Resonator schrieb:
...Kein Halbwegs seriöses selbst Mittelstands Unternehmen frippelt sich selbst seine Server zusammen mit Einzelplatten aus Preisvergleichen.

Außer so kleine Klitschen wie zb. Facebook, Google oder Backblaze :D . Wenn man sich bei SAN-Herstellern so das Geld aus der Tasche ziehen lässt, bitte. Das ist ja genau der Grund warum es eben StorageSpaces(direct), VSAN usw. gibt und immer mehr umgesetzt wird. Fujitsu und Lenovo zb. verbauen auch nur die Intel-SSD mit anderem Aufkleber.

Wenn ich die Server nicht selber bauen würde könnt ich den Preis echt nicht halten. Kostet meist ein drittel eines Systems von HP und Co und hat meist um einiges bessere Hardware drinnen. Da geht sich auch noch ein Spare-system (Hot/Coldstandby) aus falls man wirklich ausfallsicherheit benötigt. Dank Channelpartner kriegen wird die Parts in 24 Stunden mit Vorabaustausch, so fallen teure Supportverträge auch raus.
 
xexex schrieb:
Die Garantie ist bei Intel besser als die Garantie, die ein Serverhersteller normalerweise auf die vergoldeten Festplatten bieten kann.

Beim RAM ist es übrigens genauso, Kingston bietet lebenslange Garantie auf den Speicher an. Wer zu überhöhten Preisen Speicher vom Serverhersteller kauft und sich dann mit 2-3 Jahren Garantie abspeisen lässt, sollte die Augen aufmachen.

Die reine Garantiezeit ist aber nur ein Punkt. Zwar nicht unwichtig, aber viel wichtiger ist der Service den eben nur ein flächendeckendes Netz bieten kann. Die meisten Server mit unternehmenskritischen Daten werden mit 24*7 Vor Ort Service gekauft, oft sogar noch mit garantierten Wiederherstellzeiten von 4 Stunden.

Sowas können nur die grossen Serverhersteller abdecken Landesweit, und das lassen sie sich entsprechend bezahlen.
 
Also ich hab da lieber ein zweites baugleiches System daneben stehen (Hyper-V-Replica), da ist ein Ausfall dann auch egal und das zweite System ist vom Preis her meist auch nicht mehr so schlimm. Hat man viele Kisten legt man sich halt ein ganzes System auf Reserve. Wenn was ausfällt hab ich selbst die 4 Stunden nicht bis das wieder gehen soll.
 
Resonator schrieb:
Sowas können nur die grossen Serverhersteller abdecken Landesweit, und das lassen sie sich entsprechend bezahlen.

Das funktioniert nach einen simplen Prinzip. Es werden Firmen beauftragt (wie die Firma in der ich beschäftigt bin), die solche Serviceleistungen übernehmen. Der Preis mag vielleicht noch bei einem Server berechtigt sein, spätestens ab fünf Servern ist sowas bereits unsinnig.

Solche Leistungen sind spätestens seit es Virtualisierung gibt doch irrelevant. Statt einen Server hochredundant zu machen und für teures Geld eine 4 Stunden Reaktionszeit zu kaufen, ist es wesentlich günstiger einfach zwei Server zu kaufen und sie mit Replikation oder HA auf VM Basis zu versehen. Vier Stunden Ausfallzeit will sich heutzutage eh niemand mehr leisten!

Um mal ein Beispiel zu nennen.

Bei Fujitsu kostet derzeit eine 3Y/4h/24x7 OnSite Garantie knapp 1000€
https://www.bechtle.com/shop/fujitsu-3y-vorort-4-7x24-primergy-server--785697--p

Rechnest du noch die Zusatzkosten dazu, die Fujitsu für eine von denen gelabelte Intel SSD verlangt, kommst du schnell auf €2000 nur für den Supportpack und eine 2TB SSD.

Sowas rentiert sich schon kaum für einen Server und erst recht nicht für mehrere. Für das gesparte Geld kannst du bereits einen zweiten Server kaufen und dank Replikation oder HA keine 4h sondern maximal 5m Ausfallzeit erreichen.

Der einzige Grund solche Komponenten noch vom Hersteller zu erwerben, sind gute Konditionen in Form von Projektpreisen. Da lassen die Hersteller gerne mal die Hose runter und kalkulieren dann die ganzen Aufpreise weg.
 
Zuletzt bearbeitet:
IIIIIIIIIIIIIII schrieb:
Gute Entwicklung.
Warum sollte man nicht die Technik weiter ausreizen solange SSDs und NVMe Storage Drives weiterhin relativ hochpreisig sind?

Glaub mir, diese Platten werden auch schweine teuer sein. Guck mal: https://geizhals.de/?cat=hde7s&xf=1080_SAS+12Gb/s~1541_2500~3772_2.5~958_2000~959_10000

Für das Geld kannste dir auch die hier https://geizhals.de/seagate-barracuda-compute-5tb-st5000lm000-a1521940.html?hloc=at&hloc=de holen. Haste 5 TB, und kannste zwei von kaufen.

Hab ich jetzt nämlich auch gemacht. Hatte 300GB SAS Drives und da SAS eben relativ teuer ist, und es im Storage Segment nicht so extrem drauf ankommt (eben, für etwas gibt's ja die SSDs) habe ich diese geholt. Garantie auf 5 Jahre verlängern, und Raid 6 rauf.
 
Die Barracuda Compute sind als einfache Desktopplatten aber eine ganz andere Kategorie von HDDs die weit mehr Einschränkungen bzgl. der Nutzungsmöglichkeiten haben wie solche Enterprise HDDs.
 
Jo, sicherlich.

Aber so wie es aussieht, wird im Enterprise Umfeld wenns um Storage geht ja mittlerweile entweder auf SSDs gesetzt oder au 3,5" Teile.

Das was ich bis jetzt so gesehen habe, und auch bei mir festgestellt habe, wann 2,5" Storage eingesetzt wird, ist wenn es sich um ein kleineres Unternehmen/Unterfangen handelt, für dass sich der Einsatz eines SANs finanziell nicht lohnt. Also soll ja möglichst viel Storage direkt im Server stecken, also muss es 2,5" sein. Doch dann stellt sich die Frage, danach, was da drauf soll. Und häufig sind es ja entweder Backups oder grössere Dateien.
In meinem Falle sehr viele Videoaufnahmen, die ballerts rauf und runter. Da pawst so ne "normale" HDD schon. Klar, hätte man jetzt ne richtig fette DB auf der Platte, wäre es sicherlich der Aufpreis wert, doch der Aufpreis zur SSD dürfte dann ja gleich sinnvoller sein.
 
Wenn es möglichst viel Storage sein soll, dann werden eher 3.5" HDDs genommen, wenn es nicht zu teuer sein soll und die Performance keine große Rolle spielt. Sind eine gewisse Performance und Belastbarkeit nötig oder fehlt für 3.5" die Höhe, dann kommen immer noch solche 2.5" Enterprise HDDs mit 10k oder 15k rpm zum Einsatz. SSDs graben denen aber immer mehr das Wasser ab.
 
Ja, und dann gibt es auch noch die sehr konservativen Entscheider die weiter das kaufen was sie immer schon gekauft haben.
 
Vindoriel schrieb:
Hito360 schrieb:
erinnert an Jeremy Clarkson: POWERRRR!!!!

nicht produktiv, aber aus Neugierde wäre es interressant so eine HDD gegen ne an SATA2 angebundene SSD zu testen. Eventuell sind HDDS heute endlich mal an SSDs von vor 6+ Jahren rangekommen? :D
Oder mal eine ältere Raptor gegen eine aktuelle Desktopplatte. Zwar nicht von der sequentiellen Übertragung her, aber von den Zugriffen her dürfte auch eine 12 Jahre alte Raptor moderne Platten abledern.
Wohl eher nicht. Wenn man eine aktuelle Desktop Festplatte mit mehreren TBs einer alten Raptor gegenüberstellt, und diese im Kapazitätsfenster "Raptor" agieren lässt (also z.B. innerhalb der ersten 74 GB), so wischt die Desktop Festplatte mit der Raptor ganz gepflegt den Boden auf, insbesondere bezüglich der Zugriffszeit. Innerhalb dieses Kapazitätsfensters ist die mittlere Zugriffszeit aktueller TB-Monster deutlich besser als die der Raptor, da die Köpfe einen viel kürzeren Weg zurücklegen müssen.

Mit HD-Tune Pro kann man das übrigens recht einfach simulieren. Bei diesem Programm kann man ein Kapazitätsfenster definieren, auf das sich die Benchmarks beschränken sollen (Stichwort: short stroke).
 
Zurück
Oben