News Apex Storage X21: Adapterkarte vereint 21 M.2-SSDs zu 168 TB und 100 GB/s

flex420 schrieb:
wer plottet denn noch auf ssd's?
Probiers mal mit 128gb ram und bladebit.
Wer plottet das überhaupt noch?
Ist ja auf unter 30 Euro runter. Glaube nicht daß es irgendwann auch nur annähernd mehr als 100 Euro an Kurswert wieder sehen wird.
 
  • Gefällt mir
Reaktionen: flex420
ThePlayer schrieb:
Die SSDs brauchen doch maximal 5Watt. Was braucht dann die Elektronik auf dem Board? Oder benötigen pice5 SSDs jetzt deutlich mehr Strom?
um die 10W im maximum. und das mal 21 zusätzlich zu den beiden pcie-switchen. das ist schon nicht ganz ohne und braucht einiges an airflow.
 
  • Gefällt mir
Reaktionen: simosh und ThePlayer
Rickmer schrieb:
Gesamtkosten also ~25600€, bei 21 SSDs kannste eventuell auch einen Mengenrabatt bekommen der dich auf 25000€ bringt.

Und jetzt noch schön auf 24.999,- € auf das Hochglanzprospekt gedruckt und der Kunde freut sich, dass er keine 25k anlegen musste.
 
mibbio schrieb:
Das hab ich mich beim Lesen auch gefragt. Windows XP für Privatanwender gab es ja nur als 32-Bit Version, konnte also gar nicht mehr als 4 GB (wo auch der Grafikspeicher mit reinzählt) ansprechen. Mehr Speicher ging später nur mit einer 64-Bit Variante von Windows XP Professional.

Das allerdings lief hervorragend.

XP64, 8 GB Speicher, Festpplatten >2TB - funktionierte alles.

Nur manche Software stellte sich sehr kleinkindhaft an:
"Diese Sofware benötigt Service Pack 2!" - XP64 gab es nur mit SP1.
"Ihr System benötigt die Serverversion dieses Tools! - XP64 basierte auf dem Kernel von Windows Server 2001.
 
  • Gefällt mir
Reaktionen: Syagrius
Artikel-Update: Die Website StorageReview hat die Apex Storage X21 zum Testen erhalten und mit 21 SSDs vom Typ Samsung 980 Pro mit je 1 TB bestückt. In der Spitze konnten gut 28 GB/s sowie 14,6 Millionen IOPS (23 Millionen mit leeren SSDs) erreicht werden. Das gesamte Gespann hat einen Wert von 4.500 US-Dollar (2.800 USD für die X21). Getestet wurde auf einer potenten Desktop-Plattform mit X670E-Mainboard und Ryzen 7950X (16 Kerne) sowie 64 GB DDR5.

StorageReview schrieb:
We could pull 28.3GB/s off the card in an 8K random read operation or push 28.7GB/s to it in an 8K random write workload. For small-block write in our 4K Fio test, this card topped out at 6.8M IOPS read and 5.3M IOPS write. Moving to a smaller blocksize, we started to hit the limits of the Samsung 980 Pro SSDs, which could push 23M IOPS in a 512-byte random read operation factory fresh but dropped down to 14.6M IOPS once the drives were filled. To hit these figures out of a single slot is incredible.

Die Redaktion dankt Community-Mitglied „konkretor“ für den Hinweis zum Update.
 
  • Gefällt mir
Reaktionen: C4rp3di3m, Vitche, Epistolarius und 4 andere
MichaG schrieb:
... In der Spitze konnten gut 28 GB/s sowie 14,6 Millionen IOPS (23 Millionen mit leeren SSDs) erreicht werden ...

Damit könnte man problemlos 50 - 100 Windows 11 VMs betreiben, zumindest was die Laufwerksgeschwindigkeit betrifft :daumen:
 
  • Gefällt mir
Reaktionen: Yesman9277
@crogge Wenn das wirklich hält was es verspricht und nicht unter tatsächlicher Last direkt einbricht, sollten auch 1000 W11 VMs machbar sein... bei 8TB Modellen würde das sogar von der Kapazität passen, wenn man keine hohen Ansprüche hat.

Nur alle 1000 VMs gleichzeitig Windows Updates wird nicht funktionieren :D
 
  • Gefällt mir
Reaktionen: crogge
4500 Euro für 21 TB SSD-Kapazität (vermutlich weniger bei RAID / Redundanz) und ein Datendurchsatz von 28 GB pro Sekunde?
Wowie! :)

Gibts denn schon Benchmarks von der Sabrent-Bestückung mit 21x 8 TB Rocket Plus SSDs?

Übrigens: besagte Rocket Plus in der 8 TB-Variante nehmen maximal 11 Watt pro Stück auf. Bei 21 verbauten SSDs unter Volllast wären das also 231 Watt - ja bravo!

Die Frage ist nur: wie soll das ohne zusätzliche Stromversorgung funktionieren? Der PCIe-Slot macht bei 75 Watt dicht ... oder er raucht ab, was in der letzten Zeit ja des öfteren bei AMD(ASUS!)-Boards der Fall zu sein scheint.

Ja, ich weiß, der war jetzt fies ^^

EDIT:
Stromanschluss übersehen, je PCB ist wohl ein 6 Pin-PCIe-Stecker vorhanden - na, dann passt's ja :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: crogge und MichaG
Klärt mich auf, wo ist der Vorteil, 21 Gen4-SSD mit 1TB einzusetzen statt vier mit 8TB (die es sogar von der eingesetzten Sabrent Rocket gibt)? Da die Karte nur Gen4x16 schafft, ist sie bereits mit vier Gen4-SSD voll ausgelastet.
Ich sehe nur, dass 21x1TB (~110€/Stück) günstiger ist als 4x8TB (~1.100€/Stück), auch knapp günstiger als 3x8TB. Aber schon 11x2TB oder 6x4TB ist günstiger bzw. ähnlich teuer.

Von der Geschwindigkeit her wäre auf einigen AM5-Boards auch 6xGen5 mit 10-14.000MB/s pro SSD möglich, sobald die entsprechenden SSD verfügbar sind (Boards mit einem Gen5x16 oder 2xGen5x8 und zwei M.2 Gen5x4 können mit einer Gen5x16-auf-4xM.2-Gen5x4-Adapterkarte wie der Asrock Blazing Quad ein SSD-RAID bilden), bei Sapphire Rapids noch wesentlich mehr (theoretisch bis zu 28 SSD bei 112 Gen5-Lanes).
 
DJMadMax schrieb:
Die Frage ist nur: wie soll das ohne zusätzliche Stromversorgung funktionieren? Der PCIe-Slot macht bei 75 Watt dicht
Die Karte hat pro PCB einen 6-Pin-PCIe-Anschluss, also theoretisch 225W Maximum.
 
  • Gefällt mir
Reaktionen: C4rp3di3m und DJMadMax
DJMadMax schrieb:
Die Frage ist nur: wie soll das ohne zusätzliche Stromversorgung funktionieren?
deswegen hat die karte auch zwei 6pin pcie-anschlüsse.
Tigerfox schrieb:
Klärt mich auf, wo ist der Vorteil, 21 Gen4-SSD mit 1TB einzusetzen statt vier mit 8TB
weil im mixed load 4 ssds wesentlich weniger durschsatz schaffen als 21. die benchmarks von crystaldiskmark und co. machen immer nur lesen oder nur schreiben. das ist aber in der realität nicht so. kleines beispiel siehe hier. von 800k/150k iops r/w bleiben bei dieser 4TB ssd im mixed load nur 275k übrig.
 

Anhänge

  • 1683049024924.png
    1683049024924.png
    103,1 KB · Aufrufe: 88
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax
der Unzensierte schrieb:
Da haben wir wohl den 6-PIN- PCI- Anschluss übersehen? 😉
Tigerfox schrieb:
Die Karte hat pro PCB einen 6-Pin-PCIe-Anschluss, also theoretisch 225W Maximum.
0x8100 schrieb:
deswegen hat die karte auch zwei 6pin pcie-anschlüsse.
Ohne Witz, ich habe mir zuvor extra noch die Bilder im Artikel angesehen. Und sehe da: exakt die drei Bilder (die mit der Samsung-Bestückung) zeigen den Anschluss nicht. Die sind vom Winkel her so doof fotografiert, dass man weder die Buchse, noch die Lötpunkte auf der Rückseite sieht.

Verflixt! :D
 
Nette Idee als Karte, aber ich denke, es ist praktischer in einem eigenen Gehäuse. Sagen wir mal von den Dimensionen her ähnlich einem NAS-Gehäuse für vier klassische Festplatten. Oben gelöchert mit feinem Netz darunter und von unten ein großer Lüfter, leise aber mit ordentlichem Luftstrom.

Anschluss über verschiedene Möglichkeiten denkbar.
Und kein Kapazitätslimit.
 
DieRenteEnte schrieb:
kleines Spiel seiner Wahl (Gothic 3) auf 16 oder 32 GB RAM
Ich weiß nicht ob wir vom selben RAM reden, aber ich musste mich bei Gothic 3 damals im Januar 2007 mit 2048MB RAM begnügen :D
 
Sterntaste schrieb:
Anschluss über verschiedene Möglichkeiten denkbar.
Welche denn? Allermeisten Möglichkeitem (SFF-xxxx/Oculink/...usw...) übertragen heutzutage lediglich 4x PCIe-Lanes und keine 16 davon. Bei Oculink gibt's glaub eine Exta-Version für 8x Lanes, das war's aber auch. Höchstens wäre ein 15cm Kabel denkbar, damit die von Dir vorgestellte "Box" auf dem Tower-Boden liegend untergebracht werden kann.
 
Sterntaste schrieb:
Nette Idee als Karte, aber ich denke, es ist praktischer in einem eigenen Gehäuse. Sagen wir mal von den Dimensionen her ähnlich einem NAS-Gehäuse für vier klassische Festplatten. Oben gelöchert mit feinem Netz darunter und von unten ein großer Lüfter, leise aber mit ordentlichem Luftstrom.

Gibts durchaus, aber eins sind die Lösungen nicht - leise.
Das liegt einfach daran, dass Flash basierte Systeme für eine höhere Maximalverlustleistung ausgelegt werden müssen. Ne Toshiba MG08ACA 16TB HDD ist mit 7,6 Watt Maximalleistungsaufnahme ausgewiesen - ne Micron 9400 PRO 15,3 TB mit 25 Watt. Mehr als das dreifache und dementsprechend müssen auch die Kühlleistungen ausgelegt werden, da man die Gehäuse ja trotzdem dementsprächend kompakt bauen möchte.

Auch die hier im Artikel genannte Karte erfordert 400lfm Luftstrom - das ist extrem viel. Das bekommt man in Desktops und Workstations nicht hin sondern ist eindeutig Serverland mit schnellen und dementsprechend lauten Lüftern.

massaker schrieb:
Welche denn? Allermeisten Möglichkeitem (SFF-xxxx/Oculink/...usw...) übertragen heutzutage lediglich 4x PCIe-Lanes und keine 16 davon.
Das ist eine bewusste Wahl. Der Host hat dann irgend nen HBA mit z.B. mehreren x4 Anschlüssen und das Enclosure hat dann auch für jedes Device einen extra Port. Neben der voll verfügbaren Bandbreite erhöht das auch die Verfügbarkeit, da bei einem defekten Kabel halt nur ein Device nicht erreichbar ist und nicht mehrere. Aus der Richtung kommen ja auch die Entwicklungen was so extern angeschlossene Datenträger angeht, daher denke ich nicht, das es in absehbarer Zukunft Bestrebungen geben wird, externe Konnektoren mit noch mehr Lanes zu spezifizieren, da das mechanisch auch richtig schwierig wird da externe Konnektoren immer noch ganz andere Anforderungen haben als interne.
 
Zurück
Oben