News OCP Summit: Samsung Z-SSD als M.2 und M.3 heißt nun NF1

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.914
Samsung hat eine neue Variante der Z-SSD im Formfaktor M.2 gezeigt. Die Schreibleistung fällt geringer als bei der großen HHHL-Steckkarte aus. 240 und 480 GB Speicherplatz und ein Phoenix-Controller werden geboten. Zudem war auf dem OCP Summit erneut der NF1-Formfaktor alias M.3 für Server zu sehen.

Zur News: OCP Summit: Samsung Z-SSD als M.2 und M.3 heißt nun NF1
 
Leiht verwirrend die Namensgebung und Formformate gehen jetzt langsam auch wieder in alle Richtungen.
 
Hallo @ all,

Wieso sind geile Sachen immer nur für den Enterprise-Sektor?

Im Desktop wäre das doch auch geil. Einfach anstatt einen PCIe x16 Slot eine Kabelanbindung am MB haben, die ein einziges Kabel zu einem 4x M.3 Dock führt, in das man bis zu 4 M.3 SSDs im Hotswap einsetzten könnte. Und das bei minimalem Platzbedarf. Da könnte ja fast ein 3.5" Einschub, aber zumindest ein 5,25" Einschub dafür ausreichen.

Anstatt die bisherigen eher unschönen Lösungen wo die M.2 Slots beinahe willkürlich über dem MB verteilt sind, und man nicht mehr hinkommt, weil irgendwelche Steckkarten im Weg sind.
 
Supermicro zeigte das Server-System SSG-1029P-NMR36L mit 36 NF1-Einschüben, was mit 16-TB-Modulen bestückt 576 Terabyte SSD-Speicherplatz bedeutet.

Lecker ... da würd' ich mal gern die ein oder andere Geoverarbeitung vom OSM-Planet vornehmen. Das müsste wohl recht responsiv bleiben.
 
Mir wäre schon geholfen, wenn es eine günstige M.2 Adapter Karte geben würde, die in einen x16 Slot passt und auf die man 3 oder 4 M.2.pcie Karten stecken kann.
 
Wird Samsung die Papiertiger auch mal auf den Markt bringen oder bleibt es für heuer bei Ankündigungen?
 
Das M.3..pardon, NF1 Format ist toll, das könnte man auch super im Desktop Bereich nutzen und sehr kompakte Gehäuse mit 2-4 solcher Einschübe konstruieren.
 
digitalangel18 schrieb:
Das M.3..pardon, NF1 Format ist toll, das könnte man auch super im Desktop Bereich nutzen und sehr kompakte Gehäuse mit 2-4 solcher Einschübe konstruieren.

Alternativ, die Preise so schnell senken, dass ein zweiter Einschub nur für das Kopieren benötigt wird. :)

Bei HDDs hatten wir das mal. 500 GB Laufwerk durch 5 TB ersetzen. Wozu dann die alte noch drinlassen? :)
 
BlackWidowmaker schrieb:
Wieso sind geile Sachen immer nur für den Enterprise-Sektor?

Wird an den dezenten Preisen für die schöne Technik liegen, ich hätte auch nichts gegen ein 16TB Modell, nur bezahlen möchte ich das momentan nicht...
 
BlackWidowmaker schrieb:
Hallo @ all,

Wieso sind geile Sachen immer nur für den Enterprise-Sektor?

Im Desktop wäre das doch auch geil. Einfach anstatt einen PCIe x16 Slot eine Kabelanbindung am MB haben, die ein einziges Kabel zu einem 4x M.3 Dock führt, in das man bis zu 4 M.3 SSDs im Hotswap einsetzten könnte. Und das bei minimalem Platzbedarf. Da könnte ja fast ein 3.5" Einschub, aber zumindest ein 5,25" Einschub dafür ausreichen.

Anstatt die bisherigen eher unschönen Lösungen wo die M.2 Slots beinahe willkürlich über dem MB verteilt sind, und man nicht mehr hinkommt, weil irgendwelche Steckkarten im Weg sind.

Naja das Ruler Format dürfte dafür aber nicht geeignet sein, das ist einfach zu lang, solche tiefen, breite oder hohen Gehäuse wird privat niemand haben wollen.

Da gefällt mir das von Samsung mit 11cm schon deutlich besser, dann muss auch der "Netzwerkschrank" daheim keine Bautiefe von über 60cm besitzen, bei Intel kann man sich das ja ausmalen, 30cm allein schon für deas Ruler Format, dahinter dann noch das Mainboard, da landet man eher bei 70cm tiefen Gehäusen dann. Klar fürs Rechenzentrum geil, für alle die aber keine mehrere dutzend Server in einem Rack betreiben wollen total Platzverschwendung.
 
BlackWidowmaker schrieb:
Im Desktop wäre das doch auch geil. Einfach anstatt einen PCIe x16 Slot eine Kabelanbindung am MB haben, die ein einziges Kabel zu einem 4x M.3 Dock führt, in das man bis zu 4 M.3 SSDs im Hotswap einsetzten könnte.
16 PCIe Lanes alleine für SSDs werden nur die wenigsten Heimanwenderplattformen abzweigen können, alleine auf den Enthusiastenplattformen sind genug Lanes dafür vorhanden und auch allenfalls deren Käufer dürften auch das Geld für die nötigen SSDs haben.

Hotswap ist zwar schön, aber für Heimanwender im Grund total unnötig und daher auch meist nur unnötig teuer. Es würde eigentlich reichen endlich eine handliche und preisgünstige Alternative zu U.2 für die Anbindung von PCIe SSDs im 2.5" Formfaktor zu etablieren. OCuLink sollte ja mal diese Rolle übernehmen:



Aber außer auf ein Serverboards und Kabeln von Supermico für den Anschluss von eben U.2 SSDs, habe ich davon noch nichts gesehen.
BlackWidowmaker schrieb:
Anstatt die bisherigen eher unschönen Lösungen wo die M.2 Slots beinahe willkürlich über dem MB verteilt sind, und man nicht mehr hinkommt, weil irgendwelche Steckkarten im Weg sind.
Das ist echt Mist, aber es lag wohl daran das M.2 sich als Formfaktor für Client SSDs etabliert hat, weil diese eben anfangs vor allem im Notebooksegment stark verbreitet waren und SATA Express eine Fehlgeburt war. SATA Express war ja eigentlich als Lösung für die Anbindung von PCIe SSDs im Desktop geplant, bot aber neben der Einschränkung auf 2 PCIe Lanes schon nicht genug Bandbreite bevor die erste SSD dafür erschienen ist. Obendrein kostet es SATA Ports und die Kabel sind teurer und unhandlich, letzteres gilt eben auch für U.2, welches eigentlich nur für Enterprise gedacht war und sich bisher eben auch nicht im Consumersegment etablieren kann. Mit den etablierten Formfaktoren die von HDDs stammen, wie eben 2.5", kann man im Desktop doch gut leben, hier hat wohl kaum jemand das Problem das der Platz die Kapazität der verbauten SSDs limitiert, sondern vor allem deren Preis hält die Leute davon ab mehr SSDs zu verbauen und wer viele SSDs verbaut, der muss dann meist auch wegen der begrenzten Anzahl an PCIe Lanes auf SATA ausweichen, wo der 2.5" Formfaktor ja auch kein Problem darstellt, sofern man eben kein ganz kompaktes Gehäuse hat, wie z.B. NUC oder Notebook.
 
Holt schrieb:
16 PCIe Lanes alleine für SSDs werden nur die wenigsten Heimanwenderplattformen abzweigen können, alleine auf den Enthusiastenplattformen sind genug Lanes dafür vorhanden und auch allenfalls deren Käufer dürften auch das Geld für die nötigen SSDs haben.

Hotswap ist zwar schön, aber für Heimanwender im Grund total unnötig und daher auch meist nur unnötig teuer.

Ich würde mich schon als Enthusiast sehen. Wenn ich aber wählen müsste ob 16 PCIE Lanes für Grafik oder SSD, dann müsste ich nicht lange überlegen zumal bis auf einen PC wo ein NVidia 1050 TI verbaut ist alle anderen gar keine Grafikkarte verbaut haben.

Bei mir stapeln sich SSDs. Zugegeben, sie sind alle SATA aber NVME werden sich auch ansammeln solange die Teile nicht im Preis fallen. Fünf Jahre alte HDD? Hätte ich ohne Nachzudenken entsorgt aber SSD im selben Alter? Noch sehr gut zu gebrauchen. Warum sollen sie in der Schublade versauern wenn sie doch als Teil eines RAID 0 weitere 500 MBytes/s beschleunigen?

Zu Hotplug... SATA ist Consumerprodukt, Hotplug und dennoch nicht zu teuer.
 
Auch bei SATA sollte man Hotplugging nur mit Backplane machen, damit die Kontakte in der vorgesehenen Reihenfolge verbunden werden, dafür sind ja extra ein paar länger als die anderen. Backplanes sind bei Heimanwendern aber doch sehr die Ausnahme, von einzelnen Wechselrahmen mal angesehen.
 
Braucht man nicht eigentlich ein irres Netzwerk um so einen Storage Server überhaupt auszulasten?
Denn 10Gbit stemmt ja schon eine solche SSD alleine.
 
Wieso muss man den auslasten können wollen? Wenn ein Auto kaufst welches 300km/h schnell fahren kann, willst Du deswegen doch auch nicht immer nur mit 300 Sachen durch die Gegend fahren, es also voll auslasten, oder? So ein Storage wird angeschafft wenn man dadurch Performancevorteile hat und nicht nur dann, wenn man es auch wirklich ständig bis ans Limit ausgelastet bekommt, was man sowieso eher vermeiden sollte. Es reicht eben, wenn es kein Flaschenhals mehr ist. Das ist wie bei USB3, USB2 war vorher schon lange ein Flaschenhals für USB Platten und wohl auch die USB Sticks und daher war USB3 ein großer Fortschritt der sich auch schnell durchgesetzt hat, obwohl bis heute keine HDDs und fast kein USB Stick auch nur die Bandbreite von 5Gb/s auslasten können, die mit USAP Protokoll bei nativen Controller bis zu etwa 450MB/s ermöglicht. Eigentlich schaffen nur externe SSDs mehr und auch nur ein RAID 0 von zwei SATA SSDs schafft es überhaupt die 10Gb/s von USB 3.1 Gen 2 auszulasten.

Keine Ahnung wieso so viele Leute immer meinen man müsse die HW voll auslasten können damit es sich lohnt diese anzuschaffen. Vielmehr ist es doch so, dass es sich lohnt wenn man damit schneller wird, z.B. weil es eben kein Flaschenhals ist wie auch damals bei USB3. Da hat auch keine gewartet bis USB SSDs erschienen sind die die volle Bandbreite dann wirklich erst auslasten konnten, sondern alle waren froh den Flaschenhals bei der Anbindung von HDDs über USB den USB2 bis dahin dargestellt hatte, endlich beseitigt zu haben.

Außerdem werden Speicher ja nicht nur übers Netzwerk angesprochen, sondern gerade solche SSDs dürften vor allem lokal verwendet werden um eben von deren geringer Latenz wirklich zu profitieren, also bei Anwendungen wo die Daten schnell geliefert werden müssen und zu groß sind um im RAM Platz zu finden.
 
Zuletzt bearbeitet:
ruthi91 schrieb:
Braucht man nicht eigentlich ein irres Netzwerk um so einen Storage Server überhaupt auszulasten?

Fibrechannel mit 32gb und ab ins SAN damit. Oder halt lokale Nutzung. Für einen Fileserver aber schon fast zu schade.
 
Holt schrieb:
Wieso muss man den auslasten können wollen? Wenn ein Auto kaufst welches 300km/h schnell fahren kann, willst Du deswegen doch auch nicht immer nur mit 300 Sachen durch die Gegend fahren, es also voll auslasten, oder?

Der Vergleich hinkt. Besser wäre dieser: Wenn Du ein Auto kaufst, daß 300km/h schnell ist, dann montierst Du auch keine Reifen drauf die nur bis 180km/h zugelassen sind. Auch wenn Du maximal 220 km/h auf der Autobahn fährst.


Die Frage ist durchaus berechtigt, nur mit dem Begriff "auslasten" etwas unglücklich formuliert. Ein guter Enduser Vergleich wäre z.B. eine NVMe SSD mit PCIe 3.0 x4 Schnittstelle, die Dank einem PCIe 2.0 Slot auf dem MB in ihrer Leistung beschnitten ist.

Nun, es gibt ja bereits NICs mit 4x 10GBase-T, die könnten die benötigte Bandbreite übers Netzwerk liefern. Die 450€ Anschaffungskosten sind da kein auschlaggebender Posten. Und natürlich Anbindungen über Fibre Channel wie bereits erwähnt.
 
Zurück
Oben