News Utran Technology: 28 M.2-SSDs in einer PCIe-5.0-Karte untergebracht

M.2 sind generell nichts für Workstations egal wie professionell man das auch versucht zu verkaufen (außer vllt. für das OS selbst). Hier ist U.2/U.3 (oder auch als SAS Schnittstelle) Trumpf aus diverse Gründen. Egal wie gut die Karte sein mag, eine M.2 SSD hat ausnahmslos immer viele Kompromisse an Bord.

Schaut man sich mal an was bereits auf einer 22110 M2 SSD zusätzlich an extra Komponenten verbaut ist, weiß man auch wieso. Ich habe hier alle möglichen Typen mit diversen Schnittstellen herumliegen und kann das super vergleichen. In meinen U.3 SSDs sind abgesehen von der Extrakühlung über das fette 2,5" Gehäuse auch noch große Kondensatoren und andere Teile verbaut welche in dem Notebook Format einfach nicht passen würden. Von Gesamtperformance abseits von sequentiellem schreiben und den DWPD brauchen wir da gar nicht erst sprechen aber das sind eben auch keine Consumer Produkte.

Die Hoffnung auch 2,5" Consumer U.2 SSDs zu erleben habe ich aber schon lange begraben. Nach den klassischen 2,5" SATA SSDs hat das Format leider den Weg in heimische PCs nie groß gefunden obwohl fast jeder ein Gehäuse mit entsprechend Platz dafür hätte. Für Mini-ITX und Notebooks ist das M.2 Format ja auch wirklich super aber für den Rest?

Diese Karten sind nette Machbarkeitsstudien aber bei den Preisen die man am Ende vor sich liegen hat und der extremen Abwärme sehe ich da keinerlei Vorteile zu genannten anderen Formaten. Das Teil wirft doch auch nur so sinnlos viel Hitze, weil man hier neben den Flash Chips der SSDs auch sinnloserweise mal eben noch 28 SSD Controller mit Strom versorgen muss. Von HotSwap und ähnlichem braucht man gar nicht erst anfangen.

Vielleicht sind die Karten aber auch mehr als Werbung für die Broadcom PCIe Switch Chips zu verstehen. Ist ja ganz nett wenn Broadcom in den Switch Chips immer mehr Lanes anbinden kann und sie selbst scheinbar abseits von solchen SSD Bombern nicht so richtig wissen wofür überhaupt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor, INe5xIlium und Fragger911
Weyoun schrieb:
Oje, ein x16 und weitere zwei x8 Steckplätze werden benötigt. Es wird Zeit für PCIe6.0 im Enterprise-Segment!
Wobei: Wenn das kommt, gibt es bereits Nachfolgelösungen, die ihrerseits wieder den PCIe-Flaschenhals offenbaren.
Meanwhile hat mein Mainboard noch PCIe 3.0 :D
 
  • Gefällt mir
Reaktionen: konkretor und Alphanerd
Rockbreak schrieb:
[Ich lese nur dass HDDS weiterhin bei Datencentern hoch gefragt sind und die Nachfrage durch KI sogar weiter gestiegen ist.
Für "KI" will man sicher keine HDDs, die haben zu hohe Latenz. AWS und Co bieten HDDs für ihre Instanzen auch gar nicht mehr ohne weiteres an, da ist überall SSD/NVMe drin.

Aber Billig-Network-Storage wie z.B. S3 kann mit HDDs realisiert werden, dann typischerweise mit großzügigem Solid State-Buffer davor. Und genau das ist ja "Cloud", eben wenn der Benutzer auch mal fünf Sekunden warten kann.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Rickmer schrieb:
Ist so ein Monster und 28x 8TB m.2 wirklich günstiger und/oder effektiver als 2x 123er U.2 SSDs? Oder 4x 62TB u.2 wenn's TLC sein muss?
Naja...schon. 3k für den Adapter, 550 pro M.2 @ 8TB = 18.400 € total cost für 224 TB Speicher.

Die günstigste 30,72TB ist eine Solidigm für 3.250 €, davon brauchen wir hier acht Stück = 26.000 €. Die billigste 61,44TB Disk liegt bei 8.300 €, davon brauchen wir vier Stück = 33.200 €.

Rein preislich ists auf jeden Fall die "beste" Lösung. Wie du aber (anhand deiner Beiträge angenommen) eh weisst kommts am Ende stark auf den Anwendungszweck an. Von IOPS bis zu TBW oder GB/s gibts ja jede Menge verschiedener Anforderungsprofile. :D
 
  • Gefällt mir
Reaktionen: madmax2010
Ich möchte dem Unternehmen nicht unterstellen, dass sie ihr Handwerk nicht verstehen. Und sicherlich kennen sie auch ihre Zielgruppe. Mich stören bei der Lösung jedoch zwei Dinge.

Warum presse ich alles auf eine Karte, wenn ich dann doch zwei Steckplätze benötige und eh die doppelte Bauhöhe nutze oder ist der zweite nur Optional, um die "maximale" Bandbreite erreichen zu können?

Und wenn sie schon so eine "Huckepack" Lösung bieten, dann hätten sie diese ja auch Hotswap fähig machen können. Der PCIe Standard gibt das ja her. Zumal im Server Bereich, ja auch bald PCIe 6.0 und 7.0 anstehen.

Dann habe ich also in meinem Storage System mal rund 4 dieser Karten und weil eine NVMe ausfällt, muss ich die ganze Node vom Netz nehmen. Denke, das hätte man besser hinbekommen können. Zumal es ja für NVMes bereits einen Standard für Hotswap-fähige Module gibt, siehe E1.

PS Und warum sind die LEDs nicht nach außen an die Slotblende durchgeführt oder an einer Stelle, wo ich sie auch bei einem Blick auf das System sehen kann. Sieht für mich alles nach einer Machbarkeitsstudie aus.

PPS Server haben oftmals die Slots direkt nebeneinander, hier habe ich keine Option alle Slots bei dieser Bauform zu nutzten.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
hätte man dann nicht einfach 2kleinere modelle nehmen können?
Dachte ich auch. Ich hoffe, es liegt an der Kühllösung oder die haben die SSDs nur so sinnvoll anordnen können, dass die auch für weniger schon mehr als einen Slot in der Breite gebraucht hätten und dann konnten die die Karte auch gleich voll machen.
Bilder vom Inneren wären da interessant (auch wenn ich mir zu 100% sicher bin, dass ich es nicht brauche).

SSDs im 2.5" Format fände ich da viel interessanter aber wie @holdes geschrieben hat, scheint sich das wirklich nicht durchzusetzen.
 
  • Gefällt mir
Reaktionen: madmax2010
3000€ rein für die Adapterkarte?
und das bei ~ 0,5ms Latenz und ~ 400000 IOPS?

ui da hat aber jemand den Schuss nicht gehört ...

die Apex Storages sind ca. gleich teuer, haben zwar "nur" bis 168 TB auf eine Karte und "nur" ca. 50 GB/s Bandbreite, dafür aber Latenzen unter 0,1ms und bis zu 48000000 IOPS.

heißt die sind sogesehen und das 10fache günstiger als diese Bastelei da. Vorallem kommen die scheinbar auch ohne großen und lauten Lüfter aus.
 
  • Gefällt mir
Reaktionen: Spawn182
@Spawn182

HotSwap auf PCIe muss aber auch deine gesamte Plattform drunter ermöglichen und erlauben, das ist nicht ganz trivial. Sprich Mainboard/BIOS/CPU benötigen den Support gleichermaßen. Auf WRX90 geht es teilweise aber Consumer absolut gar keine mir bekannte Kombination. Im Gegensatz zu z.B. SATA was relativ losgelöst von Taktzyklen deiner CPU nebenher mitläuft oder gar von externen Controllern auf dem Mainboard, ist PCIe von vielen Abläufen in deiner CPU abhängig.

Anderes Problem mit HotSwap ist der M.2 Schnittstellenstandard an sich. Selbst wenn dein Board eines der genannten „Minimum“ Plattform wäre, hat die Schnittstelle von M.2 den Nachteil, dass alle Kontakte gleich lang sind.

Bei U.2/U.3/SAS/SATA/E.1 hingegen sind die nicht gleich lang, damit die Masseleitung immer vor der Spannung und Datenleitung verbunden wird. Ob es also trotzdem irgendwie geht, muss ich mal ausprobieren wenn IcyDock endlich mein Wunschprodukt veröffentlicht :).
 
@holdes Das habe ich ja geschrieben. Zum einen wird sich kaum einer in sein 0815 Consumer Board diese Karte stecken - das scheitert ja schon an den 16 plus 8 Lanes und ich möchte die Daten vermutlich auch schnell teilen, also brauche ich noch Lanes für ein schnelles Netzwerk und ich meine damit nicht 10 oder 25GBase. Ich sehe da eher Threadripper oder Epyc mit passendem Chipsatz als Kernstück und warum dann nicht etwas nachdenken und einen passenden Standard wie E.1 wählen oder schlicht einen eigenen Wechselrahmen nutzen.

Die wollen ja auch eine hohe Dichte erreichen und blocken diese wiederum durch die x8 per extra Kabel.

Wie von dir erwähnt und von mir geschrieben, der PCIe Standard kann das, nur eben der lumpige M.2 Standard für uns Kunden zweiter Klasse nicht.

Ich finde es für die vermutete Zielgruppe nur ein Proof of Concept oder eher etwas Richtung Clickbait für ne News, damit der Firmenname in der Suchmaschine auftaucht, aber eben kein rundes Produkt 🤷‍♂️
 
Zuletzt bearbeitet:
Wohl wahr, ich wollte dir auch gar nicht widersprechen, eher ergänzen :). Für Enterprise Kunden ist der Preis alles andere als teuer aber da scheitert es eben an allen anderen Dingen sobald man auf Consumer SSDs setzen soll. 22110 Enterprise werden wohl nicht reinpassen und das macht das Konstrukt ja auch nicht weniger fehleranfällig.

Im Rack haben wir bei uns selbst als SAN eine PureStorage hängen. Im Leben würde ich niemals auf die Idee kommen einen Storage Server mit solchen Dingern auch nur in Erwägung zu ziehen. Die einzige Zielgruppe für das Teil sehe ich eher bei Nerds/HomeLab mit haufenweise herumliegenden SSD und etwas Spielgeld.

Tatsächlich eins der wenigen Storage Produkte, welche ich nicht mal geschenkt nehmen würde ;).
 
  • Gefällt mir
Reaktionen: Spawn182 und INe5xIlium
Erinnert mich an meine alte 5850 😄
 
Wer Datenspeicher im Server benötigt, hat sicher U.2 drin, und nicht so ein gemurkse mit 8TB Winzlingen.
 
  • Gefällt mir
Reaktionen: konkretor und Spawn182
GrumpyCat schrieb:
Für "KI" will man sicher keine HDDs, die haben zu hohe Latenz.
https://www.techspot.com/news/102581-demand-hdds-ai-companies-has-pushed-prices-up.html

https://www.tomshardware.com/tech-i...e-years-according-to-survey-funded-by-seagate

Zitat: When it comes to storage capacity, it gets quite interesting: Among organizations using over 100PB of storage, 87% save AI training checkpoints in either cloud environments or a combination of hard drives and solid-state drives.
 
Spawn182 schrieb:
nur ein Proof of Concept oder eher etwas Richtung Clickbait für ne News, damit der Firmenname in der Suchmaschine auftaucht,
Denke ich auch. So gesehen hat es ähnlich Sinn für Kunden, wie ein F1 Auto und ein wenig von der Technik, die damit beworben wird, landet vielleicht sinnvoll in einem richtigen Produkt.

Für Kunden, die das tatsächlich brauchen, stelle ich mir die Wartbarkeit gar nicht so einfach vor. Wenn da so viele Ssds drin sind, geht sicher auch mal etwas kaputt. Das sieht aber alles nicht so aus, als könnte man die Ssds schnell wechseln. Schon gar nicht im Betrieb.
 
  • Gefällt mir
Reaktionen: Spawn182
Scahde, ich würd egerne Bidler vom Inneren sehen.
und wieso zeigt das Gehäuse nur 14 Slots?
 
  • Gefällt mir
Reaktionen: INe5xIlium
Ironbutt schrieb:
Und für was?

Vor allem durch das anzapfen der benachbarten PCIe Schnittstelle wirkt es am Ende eher wie zwei Karten die auf ein PCB gepackt wurden.
Wahrscheinlich ist die Speicherdichte bzw. Platzverbrauch ein Argument.
Die Teile laufen ohnehin in großen Serverschränken.
 
@radoxx: nope, dafür gibt's andere Lösungen im u.2 bzw. U.3 Format, für die ist sowas eine Bastellösung.
 
  • Gefällt mir
Reaktionen: Spawn182
Zurück
Oben