News Utran Technology: 28 M.2-SSDs in einer PCIe-5.0-Karte untergebracht

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
14.268
Adapter-Karten für M.2-SSDs gibt es inzwischen einige. Ein Modell, das gleich 28 M.2-Module trägt, ist aber ein seltener Anblick. Auf der vergangenen Computex hat die Firma Utran Technology ein solches „Monster“ gezeigt. Kombiniert 224 TB und 109 GB/s Durchsatz über PCIe 5.0 sind möglich.

Zur News: Utran Technology: 28 M.2-SSDs in einer PCIe-5.0-Karte untergebracht
 
  • Gefällt mir
Reaktionen: cosmo45, DynamaxX, NMA und 5 andere
  • Gefällt mir
Reaktionen: flo.murr
Intel Inside war einmal... lol ;-)

(...weil ...die SSD Sparte haben die ja schließlich verkauft. Und auch sonst so... )
 
  • Gefällt mir
Reaktionen: IgorGlock
Da ich mich da nicht so auskenne, stelle ich jetzt mal die Frage: Wo wird soetwas gebraucht? Oder geht es hier nur um eine Machbarkeitsstudie?
 
@Copiegeil So was ist für Wolkenanbieter und Datenzentren gedacht.
 
  • Gefällt mir
Reaktionen: Alphanerd
wenn ich mich dchon eines neben slots bedienen muss, hätte man dann nicht einfach 2kleinere modelle nehmen können?
 
  • Gefällt mir
Reaktionen: Zagrthos, fckzensur, INe5xIlium und 2 andere
Copiegeil schrieb:
Da ich mich da nicht so auskenne, stelle ich jetzt mal die Frage: Wo wird soetwas gebraucht? Oder geht es hier nur um eine Machbarkeitsstudie?
Bei großen storages geht's nicht mehr um Ausfallszenarien von einzelnen Disks sondern ganzen nodes, racks oder sogar pods. Von dem her wäre hotplug egal.

Wobei diese meist sowieso custom hardware haben in diesen größenordnungen, ka :D
 
Ist so ein Monster und 28x 8TB m.2 wirklich günstiger und/oder effektiver als 2x 123er U.2 SSDs? Oder 4x 62TB u.2 wenn's TLC sein muss?
 
  • Gefällt mir
Reaktionen: drmaniac, NMA, kaji-kun und eine weitere Person
Und für was?

Vor allem durch das anzapfen der benachbarten PCIe Schnittstelle wirkt es am Ende eher wie zwei Karten die auf ein PCB gepackt wurden.
 
  • Gefällt mir
Reaktionen: fckzensur, konkretor, NMA und 2 andere
Einen PCIe -> U.2 2.5" Adapter (á la DeLOCK 90169... irgendwo schon in PCIe 5.0 x16 gesehen) plus 4x Micron 6550 ION 61.44TB und man hat schon mal die Kapazität mit weit weniger Fummelaufwand sowie geringerem Energiebedarf gelöst.
(122 TB in U.2 2,5" gibt es ja auch schon)
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, mac^- und NMA
Optimal für das „Urlaubsbilder“ Archiv :D
 
  • Gefällt mir
Reaktionen: Aslo, fckzensur und raychan
Selbst wenn man 16 Lanes dazu schaltet sind das immer noch nur 32 Lanes für 28 SSDs, heißt eine SSD hat im Schnitt nur wenig mehr als eine einzelne Lane...
LinuxTux schrieb:
Wolkenanbieter und Datenzentren gedacht
Die nutzen doch hauptsächlich immer noch HDDS weil einfach kosteneffizienter und langlebiger da dort ja Daten 24/7 geschrieben und gelöscht werden.
 
Rockbreak schrieb:
Die nutzen doch hauptsächlich immer noch HDDS weil einfach kosteneffizienter und langlebiger da dort ja Daten 24/7 geschrieben und gelöscht werden.
Mittlerweile gehen die aufgrund der höheren Geschwindigkeit immer mehr zu SSDs über.
 
@LinuxTux Sagt wer? Wenn die HDDS in einem RAID geschaltet sind und das werden sie wohl auch in Datencentern, hast du sowieso höhere Geschwindigkeiten als von einer einzelnen HDD. Ich lese nur dass HDDS weiterhin bei Datencentern hoch gefragt sind und die Nachfrage durch KI sogar weiter gestiegen ist.
 
Oje, ein x16 und weitere zwei x8 Steckplätze werden benötigt. Es wird Zeit für PCIe6.0 im Enterprise-Segment!
Wobei: Wenn das kommt, gibt es bereits Nachfolgelösungen, die ihrerseits wieder den PCIe-Flaschenhals offenbaren. Da hilft nur eine optische oder zumindest eine opto-elektrische Lösung im Bereich 250 GByte/s und mehr.
 
Rockbreak schrieb:
Selbst wenn man 16 Lanes dazu schaltet sind das immer noch nur 32 Lanes für 28 SSDs, heißt eine SSD hat im Schnitt nur wenig mehr als eine einzelne Lane...
Bandbreite ist nie so kritsch wie Latenzen.
Bei SATA / SAS ist es recht üblich ein paar hundert HDDs an einen einzelnen Port zu hängen. Da hast du einen externen SAS Port, und daisy-chainst dann bis zu 16 (mehr habe ich noch nicht live gesehen) Enclosures mit jeweils 25 HDDs / SSDs daran. In dem Fall waren fast immer die IOPS am ende, bevor die Bandbreite relevant wurde. Und Latenzen sind gerade ohnehin der kritischste Teil.
Am ende hat die Firma die das betreibt dann ohnehin nur 1-2Gbit/s am DECIX, AMSIX und 2-3 weiteren exchages.
Die hohe Bandbreite braucht kaum jemand professionell.

Rockbreak schrieb:
Die nutzen doch hauptsächlich immer noch HDDS weil einfach kosteneffizienter und langlebiger da dort ja Daten 24/7 geschrieben und gelöscht werden.
nope.
Da hat man einige Level an storage. Wenn du ein Rack mit HDDs voll machst ist das Limitam Markt gerade bei ca 15-25PB/Rack, je nach Hersteller, womit man dann aber nur knapp 50.000 IOPS bedienen kann.
Mit Flash landet man bei vergleichbaren Dimensionen, schafft aber oberhalb von 70.000.000 IOPS bei mehr als 100x niedrigeren Latenzen.

Solche Adapterkarten wird man im professionellen Umfeld jedoch trotzdem nicht sehen. Die sind zu langsam und in wirklich dicht gepackten Racks nutzt niemand m.2 / u.2
So etwas sieht dann eher so aus:
https://www.storagereview.com/news/...-flasharray-e-and-new-flasharray-x-c-r4-nodes
 
  • Gefällt mir
Reaktionen: LinuxTux, AlphaKaninchen, konkretor und 2 andere
Northstar2710 schrieb:
wenn ich mich dchon eines neben slots bedienen muss, hätte man dann nicht einfach 2kleinere modelle nehmen können?
Wahrscheinlich war ein PEX89144 günstiger als zwei PEX89072. :D
Wirkt schon sehr gebastelt.
 
Einmal einpacken zum Mitnehmen bitte!
Mein All-Flash-NAS freut sich. :D
 
Zurück
Oben