Notiz Storage Scaler: PCIe-Adapter für 16 M.2-SSDs bei Kickstarter

@Cool Master So wie du dir das vorstellst funktioniert das nicht.
 
craxity schrieb:
Völlig überteuert. Das ist doch nur eine Platine mit ein paar Steckern.
Fehlen noch die Spannungswandler ...
$400 early bird ist tatsächlich Stolz. So stolz das es ab einer handvoll Katen günstiger ist sowas selbst entwickeln zu lassen.
 
  • Gefällt mir
Reaktionen: craxity
wannabe_nerd schrieb:
Da bleib ich lieber bei meinen beiden 2,5" ICYDOCK-Bays:
Anhang anzeigen 1098997
Joa, was ist wohl realistischer, die Karte aus dem Artikel oder ein 19" Schrank daheim :D

@ topic:
Das Resultat entspricht einer einzelnen PCIe-4.0-SSD der aktuellen Oberklasse, ist also nicht beeindruckend. Die Möglichkeit, sehr viele M.2-Datenträger auf kleinem Raum mit dem System zu verbinden, ist wohl das eigentliche Argument für den Storage Scaler.
Das ist ja auch ein Storage Scaler, nicht ein Speed Scaler ;)

Aber bei Storage ist RAID 0 irgendwie Banane. Ein 0+1 macht mehr Sinn, also halbe
Kapazität und 4 statt 8GB/s. Völlig irre das Ding und ein Fall fürs IT Kuriositätenkabinett.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und MichaG
Eigentlich cool. Allerdings würde ich dann lieber einen 2x 5,25 " zu 16x 2,5" Einbauschacht. Nutzen. Denn PCIe Slots hab ich auch mit Threadripper keine mehr die ich dafür entbehren kann :D

Aber sonst lustige Idee besonders für den consumerbereich wo die Chipsätze meist nur x4 Slots weiter unten haben. So bekommt man noch richtig viel Speicher unter ohne HBA und viele Festplattenkäfige
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Bigfoot29 schrieb:
Und wer wirklich so ein 4-SSDs-in-5,25"-Schacht braucht, hat entweder 4x SATA oder stöpselt notfalls selber Technik dazwischen. Jeder Chip kostet Geld und niemand wirft sowas zum Fenster raus, nur weil es ja vielleicht mal jemand brauchen KÖNNTE. ;)

Naja wer 4 HDDs in einen 5,25" Schacht stopfen möchte, der braucht ggf. ja den eingebauten Portmultiplyer, wenn das System für den Schacht nur ein SATA-Kabel vorsieht.

Ich habe z.B. ein NAS System, das nur noch ein SATA-Port frei hat aber recht viel Platz im Gehäuse, weil dort ursprünglich an der Stelle mal ein optisches Laufwerk vorgesehen war. Natürlich ist es ordentlich Leistungsverschwendung, wenn ich die Bandbreite von einem langsamen SATA-Anschluss auf 4 Laufwerke aufteile, auf der anderen Seite limitiert Gigabit-Ethernet ohnehin viel früher.
 
SFF-8643 auf 4 Port SATA Kabelpeitschen gibts für 15 Euro, 4x SATA Power-Adapter gibts für unter 5 Euro, warum sollte man da nicht 2,5Zoll SATA SSDs statt M2 nehmen?
Ist deutlich günstiger und auch nicht langsamer und Kühlung spielt bei den SATA-Geschwindigkeitsregionen auch kaum eine Rolle.
 
Diese wird darüber mit einem RAID-Controller oder Host Bus Adapter (HBA) verbunden, was zwingend nötig ist, denn einen eigenen Controller besitzt die Lösung nicht.
Was soll denn das für ein schwachsinniges Produkt sein?!
 
  • Gefällt mir
Reaktionen: wannabe_nerd, Nebula123 und Fritzler
Und dann kam PCIe 5.0. Wait, die laufen mit SATA? ROFL.
 
  • Gefällt mir
Reaktionen: wannabe_nerd und (gelöschtes Mitglied)
wannabe_nerd schrieb:
Da bleib ich lieber bei meinen beiden 2,5" ICYDOCK-Bays:
Ist doch heutzutage Pillepalle.... :)
1625622589990.png
 
  • Gefällt mir
Reaktionen: Mydgard, Fritzler, wannabe_nerd und eine weitere Person
Wirklich unverhältnismäßig teuer, wenn noch ein entsprechender HBA oder RAID Controller nötig ist, wo dran man sich eher SAS oder U.2 Laufwerke anschließt.
Dann auch noch M.2 auf 2280 gekürzt und nur für SATA geeignet.
Mit der breiten Entwicklung Richtung QLC fallen viele Anwendungsszenarien raus und M.2 mit SATA Protokoll ist jetzt schon im NVMe Rennen völlige Nische.

Da dran einen teuren und potenten HBA oder Hardware RAID Controller einzusetzen ist raus geworfenes Geld.

Geht man eher für 100€ für 1TB aus und damit 1600€ ohne Mengenrabatt plus diesen teuren Scaler, wo wir locker bei 2000€ ohne einen 500€ HBA/RAID und teure Kabel wären, ist man mit 16 MX500 1TB oder einer beliebigen 2,5" SSD günstiger unterwegs. Mit einem selbst gebauten Rahmen kriege ich das auch noch in ein Corsair 750D verbaut. Manch Fractal Gehäuse bietet es schon standardmäßig.


Ohne Bifurcation Unterstützung ist man mit dem hier wohl billiger, dazu nativ und professionell gelöst.
https://www.amfeltec.com/pci-express-gen-3-carrier-board-for-6-m2-or-ngsff-nf1-pcie-ssd-modules/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mydgard, Bigfoot29, wannabe_nerd und eine weitere Person
mgutt schrieb:
Was soll denn das für ein schwachsinniges Produkt sein?!
Statt einer Backplane, an die vor außen zugänglich die SATA/SAS SSDs eingesteckt werden und dann an einen RAID/HBA weitergereicht werden bauen wir jetzt diese ganz tollen M.2-Kärtchen ein, die zu klein sind, zu heiß werden und sich im laufenden Betrieb schön schlecht warten lassen.

Alles was ich mir für meine Server schon immer gewünscht habe.
Nicht.
 
  • Gefällt mir
Reaktionen: Mydgard, Cool Master und wannabe_nerd
  • Gefällt mir
Reaktionen: wannabe_nerd
Also nur ein M2. SATA Carrier. Kleine Serie und großes PCB tragen vermutlich zu dem hohen Preis bei.

Ich dachte anfangs das es da einen PCIe Hub gibt um aus den 16xPCIe4 32xPCIe3 machen um dann jede M2 mit 2 Lanes zu versorgen. Das hätte ich Interessant gefunden und hätte vermutlich die 400€ sogar ausgegeben.
 
  • Gefällt mir
Reaktionen: Bigfoot29
@Datensicherheitsexperten:
Wo ist die Redundanz in dem Beispiel, wenn 16 Datenträger à 512 GB einen logischen Datenträger zu 8 TB ergeben?
 
In der News steht nirgendwo was von Redundanz, wie kommst du da drauf, dass das Beispiel
redundant ausgelegt bzw. gemeint sein soll?
 
Hm, kommt meiner Meinung nach einfach viel zu spät. Jetzt, wo es SSDs gibt, die alleine die gleiche Leistung bringen, ist das bestimmt eine Nische. Von der Idee her ist es ja nicht schlecht, aber wie gesagt, zu spät...
 
Man steckt sich das Ding also in einen PCIe Slot und blockiert ihn damit, obwohl man die Lanes letztlich für den externen Raidcontroller braucht. Wäre es da nicht schlauer gewesen, den Controller aufs PCB zu packen und die Lanes des Slots zu nutzen, in dem man ohnehin schon steckt?
Wenn das Ding keine PCIe-Karte wäre, meinetwegen, aber so ist das doch bescheuert.
 
  • Gefällt mir
Reaktionen: Bigfoot29 und nille02
ghecko schrieb:
Man steckt sich das Ding also in einen PCIe Slot und blockiert ihn damit, obwohl man die Lanes letztlich für den externen Raidcontroller braucht.
Ich glaube allerdings kaum, dass man sich so ein Teil für sein AMD Mainboard besorgt und bei den Workstation/Servermainboards hat man meistens mehr als genug freie Steckplätze.
 
Zurück
Oben