News Apex Storage X21: Adapterkarte vereint 21 M.2-SSDs zu 168 TB und 100 GB/s

Highspeed Opi schrieb:
Wenn man permanent Daten schreibt und liest, also bei Spielen, ist ein Arbeitsspeicher nach wie vor deutlich überlegen.
Spiele schreiben verschwindend wenig Daten. Lesen tun manche Spiele mehr. Aber dabei brechen SSDs nicht ein.
 
  • Gefällt mir
Reaktionen: n8mahr, Conqi und bensen
gehen da nd die Laufwerksbuchstaben (Windows) bzw. die Einhängepunkte (Unix/Linux) aus bei 21 zusätzlichen Laufwerken?

PS: bei meiner Steambibliothek könnte ich diese Adapterkarte und die vielen SSDs dazu gut gebrauchen
 
Rehtsch schrieb:
16 oder 32 GB RAM in Zeiten von Windows XP und Gothic 3 ?
Was entgeht mir hier ?

Gothic 3 gehörte zu den Spielen, die so schlecht programmiert wurden, dass tatsächlich die Festplatte (HDD) ans Limit kam und Mikroruckler verursachte und das außerdem sehr lange Ladezeiten in Spielen hatte.

Eine RAM-Disk war die ultimative Lösung für alles, solange es auf die 16-32 GB passte.
Abgesehen von Spielen, war das Rendern von Bildern oder Videos extrem schnell.

Dann kamen SSDs mit brauchbarer Kapazität für annehmbare Preise.


Die meisten (jungen) PC-Nutzer heute haben gar keinen Vergleich mehr.
Man kann einfach seine Spiele auf eine HDD installieren und die Unterschiede zu einer SSD vergleichen.
Je nach Spiel wird man direkt Mikroruckler bei Bewegungen/Drehungen oder enorm lange Ladezeiten feststellen.

Die Performance auf SSDs ist völlig ausreichend, dennoch kann man noch sichtbar mehr mit RAM-Disks herauskitzeln. Kommt wie erwähnt stark auf das Spiel an. (natürlich kein League of Legends, Minecraft oder irgendwelche Indie-Spiele)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gesperrter_User
Damit laden Spiele 0,1 Sekunden schneller, yeah!
 
  • Gefällt mir
Reaktionen: jeger, Kitsune-Senpai, edenjung und eine weitere Person
Qarrr³ schrieb:
Spiele schreiben verschwindend wenig Daten. Lesen tun manche Spiele mehr. Aber dabei brechen SSDs nicht ein.
Es ging zu der Zeit um HDDs vs RAM, nicht SSD vs RAM.
Und dabei primär um die Zugriffszeiten und nicht Schreib- und Leseraten.
Und bis heute ist der RAM um Welten schneller als eine SSD, ganz besonders bei permanenter Belastung.

Die Lese- und Schreibraten spielten schon immer eine untergeordnete Rolle.
Außer im Marketing oder für Backups großer Dateien.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax, Corpus Delicti und madmax2010
Wie viel soll so ein Ding kosten?
Wenn das tatsächlich nur ein Bifurcation Board ist, dann sollte es für um die 100 bis 200e machbar sein.
Und da würden mir auch 4 M.2 Slots reichen, weil damit eh der x16 am Board ausgelastet wird.
Und 4x2TB M.2 SSD kostet bei weitem weniger als eine 8TB . .
 
Das klingt nach einem neuen "Holy sh*t" Video von Linus Tech Tips :D
 
  • Gefällt mir
Reaktionen: LordExtreme, Kitsune-Senpai, retlaps und 7 andere
Das eigentliche Ärgernis an aktuellen Rechnern ist der Mangel an PCIE-Leitungen.

Ich kann in jedem Drecks-PC vier bis 20 SATA-Laufwerke ohne Leistungseinbrüche anschliessen.

Bei M.2 ist meistens schon die zweite SSD stark eingeschränkt und wer eine Mehrfachkarte einbauen will der darf die GPU opfern. Das alles wäre nicht so schlimm wenn es noch interessante HEDT-Plattformen gäbe (Threadripper, Xeon 3647) - aber gerade die sind ja auch gerade weggefallen.
 
  • Gefällt mir
Reaktionen: M11E, Araska, Kitsune-Senpai und 7 andere
Stahlseele schrieb:
Wenn das tatsächlich nur ein Bifurcation Board ist, dann sollte es für um die 100 bis 200e machbar sein.
zum einen steht im artikel, dass ein pcie-switch verwendet wird (und mit dem kühlkörper schwer zu übersehen) und andererseits ist es gar nicht möglich mit bifurcation 21 devices an einem slot zu betreiben.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, kaji-kun, DerBandi und eine weitere Person
Also mit 21 x 64 GB Optane SSD, könnte das ganze (je nach Anwendungsfall) interessant sein, mal unabhängig vom Preis.

Zurzeit ist so ein Oschi dann doch zu viel des guten, auch wenn ich so etwas schon gern haben wollen würde.
 
WA...
Ein unraid-NAS mit 168TB auf Briefkuvert-Größe! Sehr goil 🤣
 
  • Gefällt mir
Reaktionen: MalWiederIch, Kitsune-Senpai, DJMadMax und 2 andere
Crass Spektakel schrieb:
Das eigentliche Ärgernis an aktuellen Rechnern ist der Mangel an PCIE-Leitungen.
Hier muss man fairerweise sagen, dass sowohl AMD als auch Intel da nicht komplett dran vorbei entwicklen.

AMD:
AM5 hat 28 PCIe Lanes gegenüber AM4 mit 24 PCIe Lanes, die zusätzlichen 4 Lanes sind frei verwendbar, z.B. für einen weiteren an CPU angebundenen m.2 Slot.
Ärgerlich ist hier, dass das Chipset nur mit PCIe 4.0 x4 angebunden ist. Da hätte AMD auf PCIe 5.0 x4 setzen müssen um Bottlenecks zu vermeiden. Eventuell wäre das aber auch zu hitzig und energiehungrig gewesen.

Intel:
Die CPU bietet zwar weiterhin nur 20 PCIe Lanes, aber das versteckt, dass das Chipset mit 'DMI 4.0 x8', also vergleichbar zu PCIe 4.0 x8 angebunden ist. Wenn man die zählen würde, sind das auch 28 Lanes...
Das Z790 Chipset kann daraus nochmal 20 PCIe 4.0 und 8 PCIe 3.0 Lanes machen, das dürfte für die meisten Home-User erstmal genügend PCIe sein...


Boards mit 4 m.2 Slots sind teuer, aber verfügbar. Auf Intel Seite gibt es sogar ein paar Boards mit 5 m.2 Slots. Wir sind schon weit weg von den Zeiten mit Boards, die einen, vielleicht mal zwei m.2 Slots hatten...


Tada100 schrieb:
Also mit 21 x 64 GB Optane SSD, könnte das ganze (je nach Anwendungsfall) interessant sein, mal unabhängig vom Preis.
Würde da der PCIe Switch das nicht völlig ausbremsen?
 
  • Gefällt mir
Reaktionen: DJMadMax und Viper816
Ich finde es schade, dass selbst Add-in Karten mit einem relativ kleinen PCIe Switch stark überteuert sind.

Beispiel: ASM2824; bietet 24 PCIe 3.0 Lanes, wahlweise mit 4x oder 8x Interface zum Host. Adapterkarten, die diesen nutzen, um mehr SSDs ohne Bifurcation an einem Slot anzuschließen, kosten 300-500€. Asmedia selbst bewirbt den Chip übrigens als "low-cost", gefertigt wird er wahrscheinlich in 28nm.
 
  • Gefällt mir
Reaktionen: Renegade334, Kitsune-Senpai, ThePlayer und eine weitere Person
Mich würde eher interessieren in welchem Verbund die M2´s dann laufen.
Raid (x)? Jbod? Single Laufwerke?
Und 107 GB/s über nur einen Pcie x16 Slot?
ist das nicht erst in gen 6 möglich? (derzeit haben wir 5 (max 63,0 GByte/s)
Bei mir wären mit Pcie 4 ja max. 31,5 GByte/s möglich, egal was die karte selber kann....
 

Anhänge

  • Zwischenablage01.jpg
    Zwischenablage01.jpg
    242,7 KB · Aufrufe: 181
  • Gefällt mir
Reaktionen: racer3
@Contor 107 GB/s innerhalb des Verbundes. Die M.2s laufen, wie auch immer man das will - der Chip auf der Karte ist ein PCIe hub und kein RAID controller. Das Betriebssystem sieht die einzelnen SSDs.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, racer3 und goldeye
Fliz schrieb:
Das Teil wäre doch gar nicht notwendig, wenns endlich mal größerer M2 als 4 TB geben würde..
Link
Gibt's doch schon. ;)

Würde mich mal interessieren ob es da nicht evtl. eher zu Einbußen der Geschwindigkeit kommt als einzeln auf einem Mobo - schätze die werden ziemlich warm. 🤔
 
Highspeed Opi schrieb:
Eine RAM-Disk war die ultimative Lösung für alles, solange es auf die 16-32 GB passte.
Abgesehen von Spielen, war das Rendern von Bildern oder Videos extrem schnell.
Die Frage von @Rehtsch lautet, wie Du unter Windows XP auf eine nutzbare RAM-Größe von 16-32 GB kommen willst. Windows XP (32 Bit) hat max. 4 GB unterstützt, wenn nicht auf PAE oder die 64 Bit-Variante zurückgegriffen wurde. Zumal auch die gängigen PC-Plattformen damals auch keine 16-32 GB unterstützt haben.

Highspeed Opi schrieb:
Dann kamen SSDs mit brauchbarer Kapazität für annehmbare Preise.
SSDs kamen zu Zeiten von Windows 7... so ab 2008/2009 für die Masse in "bezahlbaren" Größen

Highspeed Opi schrieb:
Die meisten (jungen) PC-Nutzer heute haben gar keinen Vergleich mehr.
Vielleicht liegt es auch an den Märchen, die hier teilweise erzählt werden.

Ich bestreite hier keinesfalls die Wirksamkeit vom RAM Disks oder entsprechenden Caches. Aber Deine Schilderung passt so nicht.

Grüße,
Christian (Ruckler bei Spielen von Doublespeed CD-Laufwerken erlebt habend)
 
  • Gefällt mir
Reaktionen: Otsy, Sbibi, Irrlicht_01 und 2 andere
Die 107GB/s sind Augenwischerei wenn ich nicht drankomme oder sie nutzen kann. Selbst wenn man von 2 separaten Arrays auf der Karte Daten verschiebt müssen die durch den PCIe Slot. Ergo man ist immer bei PCIe 4.0 x16 limitiert.
 
Zurück
Oben