News HDDs der Zukunft: Festplatten sollen PCIe und NVMe bekommen

Deswegen hab ich ja ein Problem mit der Idee. Bei den Konsumern wird sich das Problem von alleine lösen und bei Servern sehe ich den Vorteil nicht. Bei der Idee mir den Vorteil eines 16X Raidcontroller samt Backplane vorzustellen versagt einfach meine Fantasie. Wo soll der Gewinn sein? Wenn SATA3 kurz vor dem Bandbreitenlimit wäre ok aber so?

Als Billigvariante für eine Art Bladeserver mit Softwareraid und minimalen/keinen Kabellängen wäre es womöglich einsetzbar. Oder gleich in die Backplane. Aber sonst?

AlphaKaninchen schrieb:
Das dürfte Mircosoft doch bei Azure einsetzen?

Mit Low too medium drivecount... weil man bei tausenden Maschinen an den SSDs sparen will.
MS hat also in Nischenproblem weil sie extrem viele Maschinen vermutlich mit einer SSD und 2 bis 4 HDDs betrieben. Dafür sollen die anderen mal ihren "need" für PCIe entdecken. Das sich bis 2025 nichts an SATA/SAS geändert hat halte ich auch für äußerst wahrscheinlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
Mir kommt keine HDD mehr in den Rechner... hab neulich mal wieder ne alte 2TB-Platte eingebaut um mal Linux zu testen, und die Teile sind einfach zu laut. Da können sie durch neue Schnittstellen so schnell werden wie sie wollen, sowas muss man sich 2020 nicht mehr antun.
 
Majestro1337 schrieb:
Mit der neuen Variante müsste ich dafür 6 wertvolle PCIe lanes verwenden. Es sei denn ich setze hier auch wieder auf einen PCIe-switch...

Darum geht es doch und PCIe Switche mit bis zu 96 Ports sind schon seit einigen Jahren erhältlich. Also wieso von PCIe auf SAS gehen und SAS Expander verwenden, wenn man auch einen PCIe Switch nehmen kann.

Schaue dir mal so einen aktuellen AVAGO Raid Controller an, Support für NVMe/SAS/SATA und in der Zukunft wäre das eine reine PCIe Switchkarte.

Den Sinn dahinter verstehe ich durchaus, USB hat auch schon vor Jahren Serielle und Parallele Ports abgelöst, obwohl sie auch noch ausreichend gewesen sind. Wieso zig Schnittstellen für Datenträger, wenn man auch nur einen haben könnte?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
mkossmann schrieb:
PS :
Wie sieht es eigentlich mit maximalen Kabellängen aus ? Ich befürchte das die bei PCIe kürzer sein wird als bei SATA und man da eventuell bei großen Tower-Gehäusen an Grenzen stoßen könnte.
Naja SATA hat nen Meter, PCIe 3 :)
Und zudem kann PCIe auch ohne Kabel, SATA braucht ne min. länge um keine Interferenzen zu erzeugen ;)
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Das Ganze noch mit dem neuen ATX 12V kombinieren und die alten Zöpfe abschneiden. Da hat man dann etwas nettes Neues, ohne die ganzen Altlasten aus dem letzten Jahrhundert.

Das passt zum Trend, das man alles auf PCIE umstellt.
USB4, SD- und CF-Karten wechseln auch bald. In Zukunft gibt es kaum noch Schnittstellen, die nicht auf PCIE setzen.

Im Desktop wäre es vielleicht sogar möglich, in einen M2 Slot eine Adapterkarte zu stecken, um daran 4 Festplatten anzuschließen. Hoffentlich sogar ohne einen extra Chip oder spezielle Treiber.
In Zukunft brauchen die wenigsten Nutzer noch Anschlüsse für Festplatten. Den meisten reicht ihre SSD vollkommen aus, wenn sie nebenbei noch Cloud Speicher, NAS, Festplatte am Router und externe Festplatten haben.
So könnte man die Anzahl der Schnittstellen auf dem Mainboard reduzieren und gleichzeitig die Möglichkeit bieten sie mithilfe eines Adapters dennoch anzubieten.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
silentdragon95 schrieb:
Sehe den Vorteil dabei jetzt auch nicht wirklich. Abgesehen davon, Consumer-CPUs haben nach wie vor lächerlich wenige Lanes, da würde ich äußerst ungern noch zusätzlich welche für HDDs abzweigen. Und klar ließe sich das über eine Art Chipsatz mit integriertem PCIe-Switch realisieren, aber einerseits sind PCIe-Switches soweit ich weiß relativ teuer und andererseits ist das dann doch quasi das Gleiche wie bisher.
Schau dir doch Intels PCH an. Dort hat man ja eine gewissen Flexibilität für welche Schnittstelle man die HSIO Lanes nutzt. Da könnte man die SATA Funktion einfach ganz weglassen und alles für PCIe anbieten. Würde das ganze noch flexibler machen und das Design sogar vereinfachen.
Wenn man heute SATA nutzt, fällt auch eine PCIe Lane weg. Nur muss das vorab schon der Mainboard-Hersteller entscheiden. Oder er verbaut Lane-Switche um Flexibilität zu bieten. Wäre alles PCIe würde das viel simpler sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Simon
R O G E R schrieb:
Ich dachte HDDs sind tot.
Nein, im Gegenteil wird durch das gewaltige Wachstum der globalen Datenvolumen auch ein entsprechend Wachstum der gefertigten HDD Kapazität erwartet:
Auch wenn die Leute die HDDs nicht mehr im eigenen Rechner haben, landen die meisten Daten die in der Cloud stehen dann doch auf HDDs, da ja nur ein Bruchteil davon aktuell sind, als ständig auf die zugegriffen wird und die Performance daher wichtig ist. Der Rest ist Cool und Cold Data, der Artikel hier ist ja auch von einem Cloudanbieter.
mibbio schrieb:
Wie geeignet ist NVMe überhaupt für klassische mechanische Festplatten? Immerhin wurde das Protokoll ja ursprünglich nicht dafür entworfen im Gegensatz zu SATA/AHCI, was ja gewisse Optimierungen für die Kommunikation mit mech. Festplatten hat (umsortieren von Lese-/Schreibzugriffen um Lesekopfbewegungen zu minimieren).
Die Minimierung der Kopfbewegung ist eine Sache des HDD Controllers, die damit ermöglich wird das nicht mehr nur ein Befehle zur Platte geschickt wird, sondern mehrere parallel und die Platten die Reihenfolge der Abarbeitung selbst bestimmen kann (NCQ). Die bringt bei SSDs aber noch viel mehr als bei HDDs und ist bei NVMe ebenso vorhanden.
Herdware schrieb:
Die Bandbreite von PCIe wird man sicher nicht brauchen, höchstens für Cache-Zugriffe oder sowas
Lies den Artikel, es geht im die künftigen Modelle mit Multiaktoren bei denen dann auch mehrere Köpfe parallel aktiviert sein können und damit höhere Transferraten als heute erreichbar sind.
calippo schrieb:
Ist das so, besteht da noch so viel Spielraum in Sachen Speicherdichte bei Festplatten?
Wenn HAMR endlich mal serienreif ist, dann dürfte die Speicherdichte bei HDDs nochmal deutlich steigen.
calippo schrieb:
Auch wenn sich bereits sehr viele Leute mit Zukunftsszenarien in die Nesseln gesetzt haben, aber so langsam sehe ich auch eine Grenze erreicht für Speicherplatzbedarf im privaten Umfeld.
Es gibt ja nicht nur das private Umfeld und das ganze Thema hier dürfte auch vor allem im Enterprisesegment relevant sein und wenn es so kommt, erst viel später in privaten Umfeld landen.
Drakrochma schrieb:
Also ich würde mich freuen über eine HDD mit 20tb, doppelten Plattern, doppelter Höhe
Vergiss höhere Platten, die Vibrationen und vor allem die dadurch bedingten Ausschläge wäre zu groß. HDDs mit SMR haben über 500.000 Spuren pro Zoll, rechne mal aus wie groß der Abstand zwischen den Spuren ist.
yoshi0597 schrieb:
Auf Intel Servern wird dies aber kaum möglich, da diese nicht so viele PCIe Lanes zur Verfügung stellen im Vergleich zu AMD Epyc.
Bis das was jetzt ein Cloudanbieter vorschlägt, dann auch von den HDD Herstellern akzeptiert und wirklich umgesetzt wird, sind die aktuellen Server CPUs Alteisen und wenn es dann so kommt, werden AMD und Intel auch ihre Plattformen entsprechend angepasst haben.
Jesterfox schrieb:
Eigentlich dürfte das auch bei SATA der Fall sein... das ist ja nur eine auf seriell umgestellte (P)ATA Verbindung. Sprich: das auf dem Mainboard ist kein Controller im eigentlichen Sinne sondern nur ein Adapter.
SATA ist ein eigenes Protokoll und daher würde ich einen SATA Host Controller schon als Controller und nicht nur als Adapter bezeichnen, aber wenn man möchte, kann man ihn wohl auch als Adapter bezeichnen.
Bigeagle schrieb:
Wie läuft das mit der Aufteilung der pcie lanes? Wenn eine 1:1 Bindung besteht wäre das eventuell ein Rückschritt, denn heutige Boards sind schon dünn bestückt was Anschlüsse für Speicher angeht.
PCIe ist eine Point-to-Point Verbindung, genau wie SATA auch, wo soll da der Rückschritt sein?
Bigeagle schrieb:
Wie leicht/teuer wird ggf das aufteilen einer Lane auf mehrere Platten?
Dazu gibt es PCIe Switches, die reichen von billigen mit 4 Lanes bis zu den ganz teuren mit Dutzenden Lanes.
Bigeagle schrieb:
Der Knackpunkt ist dass man einen Vibrationsausgleich nur zwischen verschiedenen Platterstapeln machen kann, aber nicht innerhalb. Gleichzeitig stören sich ggf die Platten erheblich untereinander wenn die vibration zu groß wird. Man sollte die ja nicht mal anschreien
Eben, je länger die Welle ist, umso größer werden die Amplituden in der Mitte, da man sie ja nur in an den Enden aufhängen kann.
DarkerThanBlack schrieb:
Und was soll dieser Wechsel genau bringen? 600MB/s die ein SATAIII zur Verfügung hat, erreicht doch kaum eine HDD.
Selbst die schnellsten 3.5" HDDs schaffen noch nicht einmal ganz 300MB/s und die auch nur auf den äußeren Spuren, aber wer die News genau gelesen hat, auch die Texte auf den Bildern, der sollte verstanden haben was die Motivation dafür ist.
SoDaTierchen schrieb:
Was ich zur Thematik generell kritisch sehe: Es gibt ja derzeit keine PCIe-Raidcontroller in Hardware. In Serverumgebungen sind vernünftige RAID-Controller notwendig, sobald es in Richtung 24/7-Betrieb gehen soll. Software-RAIDs haben oft Nachteile, die wenig Spaß machen.
Wenn man sich die ganzen Übernahmen von den HW RAID Herstellern ansieht, so sollte klar sein das hier die Zukunftsaussichten schlecht sind, die SW RAIDs übernehmen und nur die von Windows sind Grütze, aber kaum ein wirklich großes Enterprise Storage dürfte unter Windows laufen. Die Zeit der HW RAID Controller nährt sich dem Ende!
Nebula123 schrieb:
Das was Seagate da macht mit 2 Aktuaren ist 2 auf eine Achse zu setzen.
Aber dies erlaubt es trotzdem je einen Kopf an einem der Aktuaren zeitgleich zu aktivieren und damit die Transferraten zu erhöhen. Deswegen will Seagate dies ja auch machen!
Discovery_1 schrieb:
SSD als Datengrab? Niemals. Wenn eine SSD kaputt ist, sind die Daten weg, für immer.
Wenn Dich diese Sorgen quält, dann gewöhne Dir besser an immer, also zu jedem Zeitpunkt, mindestens ein ordentliches Backup aller Daten zu haben die Du nicht verlieren möchtest. Ein ordentliches Backup steht immer auf einem Datenträger der in einem anderen Gehäuse steckt wie der/die Datenträger mit den originalen Daten. Also z.B. in der Cloud, auf einem NAS oder eben auf USB Platten die nur dafür dienen und nur zum Erstellen, Prüfen und Aktualisieren des Backups angeschlossen werden, nur so lange angeschlossen bleiben wie dies dauert und danach z.B. bei Windows mit "Hardware sicher entfernen" abgemeldet und sicher aufbewahrt werden!
AlphaKaninchen schrieb:
Nur das U.2 kein Bifurcation vorsieht, man kann also nicht an einen U.2 mit 4x, 4 HDDs mit je 1x hängen...
U.2 ist keine Schnittstelle, sondern nur eine Verbindung und da kann man 4 SATA Ports oder auch PCIe Lanes drüber ausführen und ob die 4 PCIe Lanes nun Bifurcation unterstützen oder nicht, hängt nur von dem PCIe Host Controller der Lanes ab, aber nicht von U.2 oder M.2 oder dem normalen PCIe Slot an den diese Lanes geführt werden.
xexex schrieb:
M.2 und U.2 "verwenden" beide 4 Lanes und auch das Steckerformat bei (U.2) ist suboptimal, wenn man nur eine einzige Lane bräuchte.
Statt verwenden wäre es besser erlauben zu sagen. OCuLink war ja mal als neuer Steckerformat für internen und externen PCIe Geräte vorgesehen, hat es aber nie über ein Nischendasein hinaus geschafft und auch denn wird es zuweilen nur als noch kompakterer Stecker für 4 SATA Ports oder 4 PCIe Lanes genutzt und man dann nur über Adapterkabel entweder 4 SATA Laufwerke oder eine U.2 SSD anschließen.
xexex schrieb:
Aber auch bei Intel gibt es nicht nur frei konfigurierbare IOs und Z390/Z490 sind halt Chipsatzkönige und deshalb auch teuer.
Die kleineren Chipsätze dürfte auch alle das gleiche Die nutzen und nur künstlich beschränkt sein, auch weil diese Flexibilität natürlich die Kosten der Mainboard erhöht, denn man muss ja auch noch einen Muxer verbauen um die Signale entweder da oder dort hin zu schalten. Bei den AMD EYPC können bis zu 32 PCIe Lanes in SATA Ports umgeschaltet werden!
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Holt schrieb:
aber kaum ein wirklich großes Enterprise Storage dürfte unter Windows laufen.
Große Enterprise-Storages laufen gerne mit propriätären Betriebssystemen und werden einfach nur an Server angebunden. Was da intern verbaut ist, kann ich nicht sagen, ich habe so ein Ding noch nie geöffnet. Dennoch darf das kein Grund sein, die kleineren Kunden einfach hinten runter fallen zu lassen, die auch Server-Hardware brauchen, sich aber keine reine Cloud-Lösung leisten können. Ich fände es dramatisch, wenn sich NVMe durchsetzt, aber keine Hardware-RAID-Controller dafür kommen.
 
SoDaTierchen schrieb:
Dennoch darf das kein Grund sein, die kleineren Kunden einfach hinten runter fallen zu lassen, die auch Server-Hardware brauchen, sich aber keine reine Cloud-Lösung leisten können.
Es gibt ja noch HW RAID Controller, aber diese kleinen Kunden werden eben immer weniger, weil Unternehmen oft Services an die Cloud auslagern statt sie mit eigener Hardware selbst zu erledigen und bei den kleinen Storages reichen dann vielleicht schon zwei SATA oder NVMe SSDs um alles abzudecken, wozu man früher ein Storage mit 8 SAS 10krpm oder 15krpm HDDs verwendet hat.
SoDaTierchen schrieb:
Ich fände es dramatisch, wenn sich NVMe durchsetzt, aber keine Hardware-RAID-Controller dafür kommen.
Es gibt doch sogar welche von Boardcom die Tri-Mode NVMe RAID Controller, nur kosten die einiges und ein VROC dürfte nicht nur günstiger sondern auch performanter sein, die CPUs haben ja genug Kerne um nebenbei das RAID zu bearbeiten und sind sowieso viel schneller als die kleinen CPUs in den HW RAID Controllern. Die werden so schnell nicht verschwunden sein, aber der Markt dafür wird weiter schrumpfen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Jesterfox schrieb:
Wieviel "HW" steckt eigentlich in einem HW RAID Controller?
1590608635895.png

https://www.mouser.com/datasheet/2/678/CSG-SAS-3416-Product-Brief-BC-0467EN_102616-1154503.pdf
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und bad_sign
Eine CPU dürfte immer vorhanden sein, für langsame HDDs dürfte die auch ausreichend sein. Für volle Geschwindigkeit bei PCIe SSDs könnte ich mir vorstellen das man da doch spezielle Hardwareunterstützung braucht und um Parityinformationen in "Echtzeit" berechnen zu können.
 
@Holt: das ist nur ein HBA, kein RAID-Controller. Aber der Tipp war gut, Broadcom hat tatsächlich auch RAID-Controller für NVMe im Portfolio. Mit gut 1000€ sind die auch noch erschwinglich.
 
@xexex : danke, also eine ARM CPU, aber mit zusätzlichen I/O Komponenten und Cache für den Durchsatz.

Bei den recht fixen Algorithmen für ECC-Berechnung usw. hätt ich mir da eben auch nen DSP oder ASIC vorstellen können. Aber dann sollte der unterschied zu nem Software-RAID eigentlich nicht wirklich groß sein wenn man in Zukunft n gutes I/O durch die direkte Anbindung der Platten per PCIe bekommt.
 
Mittlerweile sind es ARM-CPUs mit XOR-Offloading (Exclusive OR) für die Parity-RAID-Level (5/6 und deren Ableger 50/60), früher waren es meistens kleine PowerPC-Chips (nicht zu verwechseln mit IBM POWER).

Ein bisschen Hardware-Unterstützung ist also da. Simples RAID 0/1 (also Striping oder Spiegelung) ist nicht sonderlich rechenintensiv.

Größere Storage-Systeme (NetApp, DellEMC, IBM FlashSystem, etc.) haben heute fast ausschließlich stinknormale x86 Intel Xeons als Storage Prozessoren verbaut. Die Spanne reicht da von Broadwell-DE-Systemen mit zwei Kernen bis hin zu den großen 18C-Dual-Sockel Xeon E-2600 v3/v4 (oder neuere auch Xeon SPs) in Verbindung mit einem entsprechend großen SAS-Expander. Ganz frische NVMe-(oF)-Arrays haben auch PCIe-Switche verbaut. Die ganze RAID-Logik wird dann quasi komplett von der Software abgedeckt.
 
In Anbetracht der Liebe zu SMR, die die 3 großen/letzten Hersteller so pflegen könnte man auch wieder auf UDMA133 zurück gehen. ;)
 
SoDaTierchen schrieb:
Mit gut 1000€ sind die auch noch erschwinglich.
Ein VROC Key ist deutlich günstiger und aktuelle Xeon der dies unterstützt, dürfte der 1,2GHz ARM CPU (die wie viele Kerne hat? Einen?) sehr weit überlegen sein.
Jesterfox schrieb:
also eine ARM CPU
Eben und bei den älteren LSI war es z.B. nur ein PowerPC Kern mit 400MHz, als Desktop CPUs schon rund zehnmal so hohe Taktraten hatten. Die Resourcen für so einen Controller sind einfach viel zu knapp und auch wenn es für HDDs noch reichte, bei SSDs werden die HW RAID Controller schnell zur Bremse, denn es geht vor allem um die Latenz.
Blutschlumpf schrieb:
In Anbetracht der Liebe zu SMR, die die 3 großen/letzten Hersteller so pflegen könnte man auch wieder auf UDMA133 zurück gehen
SMR bremst ja nur die Schreibperformance und HDDs mit SMR sind für leseintensive Anwendungen gedacht, wenn man sie also bestimmungsgemäß auch so verwendet, sollte die Einschränkung der Schreibgeschwindigkeit kein Problem sein.
 
Blutschlumpf schrieb:
In Anbetracht der Liebe zu SMR, die die 3 großen/letzten Hersteller so pflegen könnte man auch wieder auf UDMA133 zurück gehen. ;)
Das Problem ist Device Managed SMR, was man haben möchte ist Host Managed SMR das könnte mit PCIe und einem für SMR optimierten Version des Übertragungsprotokoll eine höhere Verbreitung finden. Los wir es zumindest nicht mehr da HAMR und MAMR es voraussetzen.
 
AlphaKaninchen schrieb:
was man haben möchte ist Host Managed SMR
Das gab es damals schon bei den HGST Ha Modellen, die waren nur Host Managed. Aber dies ändert auch nichts daran, dass man im schlimmsten Fall die ganzen Daten in einem Bereich überlappender Spuren lesen und wieder schrieben muss, wenn man nur ein LBA der Spuren ändert. Dies machen die Device Managed selbstständig, bei den Host Managed muss der Host dies selbst machen, da keine einzelnen LBAs beschrieben werden können. Daher funktionieren diese auch nicht in normalen System die keine Host Managed SMR Platten unterstützen. Der einzige Vorteil ist also, dass der Host bei den Host Managed SMR genau weiß was vor sich geht und nicht unerwartet lange warten muss ohne zu wissen wieso es nun so lange dauert.
xexex schrieb:
Es sind meist Quad Cores.
Es kann auch nur ein Kern vorhanden sein und wenn ich mir die Cachegrößen ansehen und diese mit der Angabe bei Wikipedia vergleiche, so deuten gerade die nur 1MB L2 Cache sehr auch nur einen Kern hin. Wenn es selbst die Cachegröße für Instruktion und Data getrennt angegeben wird, hätte man auch geschrieben wie viele Kerne es sind, wenn es mehrere wären.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und (gelöschtes Mitglied)
Zurück
Oben