Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsUtran Technology: 28 M.2-SSDs in einer PCIe-5.0-Karte untergebracht
Adapter-Karten für M.2-SSDs gibt es inzwischen einige. Ein Modell, das gleich 28 M.2-Module trägt, ist aber ein seltener Anblick. Auf der vergangenen Computex hat die Firma Utran Technology ein solches „Monster“ gezeigt. Kombiniert 224 TB und 109 GB/s Durchsatz über PCIe 5.0 sind möglich.
Bei großen storages geht's nicht mehr um Ausfallszenarien von einzelnen Disks sondern ganzen nodes, racks oder sogar pods. Von dem her wäre hotplug egal.
Wobei diese meist sowieso custom hardware haben in diesen größenordnungen, ka
Einen PCIe -> U.2 2.5" Adapter (á la DeLOCK 90169... irgendwo schon in PCIe 5.0 x16 gesehen) plus 4x Micron 6550 ION 61.44TB und man hat schon mal die Kapazität mit weit weniger Fummelaufwand sowie geringerem Energiebedarf gelöst.
(122 TB in U.2 2,5" gibt es ja auch schon)
Selbst wenn man 16 Lanes dazu schaltet sind das immer noch nur 32 Lanes für 28 SSDs, heißt eine SSD hat im Schnitt nur wenig mehr als eine einzelne Lane...
@LinuxTux Sagt wer? Wenn die HDDS in einem RAID geschaltet sind und das werden sie wohl auch in Datencentern, hast du sowieso höhere Geschwindigkeiten als von einer einzelnen HDD. Ich lese nur dass HDDS weiterhin bei Datencentern hoch gefragt sind und die Nachfrage durch KI sogar weiter gestiegen ist.
Oje, ein x16 und weitere zwei x8 Steckplätze werden benötigt. Es wird Zeit für PCIe6.0 im Enterprise-Segment!
Wobei: Wenn das kommt, gibt es bereits Nachfolgelösungen, die ihrerseits wieder den PCIe-Flaschenhals offenbaren. Da hilft nur eine optische oder zumindest eine opto-elektrische Lösung im Bereich 250 GByte/s und mehr.
Selbst wenn man 16 Lanes dazu schaltet sind das immer noch nur 32 Lanes für 28 SSDs, heißt eine SSD hat im Schnitt nur wenig mehr als eine einzelne Lane...
Bandbreite ist nie so kritsch wie Latenzen.
Bei SATA / SAS ist es recht üblich ein paar hundert HDDs an einen einzelnen Port zu hängen. Da hast du einen externen SAS Port, und daisy-chainst dann bis zu 16 (mehr habe ich noch nicht live gesehen) Enclosures mit jeweils 25 HDDs / SSDs daran. In dem Fall waren fast immer die IOPS am ende, bevor die Bandbreite relevant wurde. Und Latenzen sind gerade ohnehin der kritischste Teil.
Am ende hat die Firma die das betreibt dann ohnehin nur 1-2Gbit/s am DECIX, AMSIX und 2-3 weiteren exchages.
Die hohe Bandbreite braucht kaum jemand professionell.
Rockbreak schrieb:
Die nutzen doch hauptsächlich immer noch HDDS weil einfach kosteneffizienter und langlebiger da dort ja Daten 24/7 geschrieben und gelöscht werden.
nope.
Da hat man einige Level an storage. Wenn du ein Rack mit HDDs voll machst ist das Limitam Markt gerade bei ca 15-25PB/Rack, je nach Hersteller, womit man dann aber nur knapp 50.000 IOPS bedienen kann.
Mit Flash landet man bei vergleichbaren Dimensionen, schafft aber oberhalb von 70.000.000 IOPS bei mehr als 100x niedrigeren Latenzen.