Notiz Storage Scaler: PCIe-Adapter für 16 M.2-SSDs bei Kickstarter

xexex schrieb:
und bei den Workstation/Servermainboards hat man meistens mehr als genug freie Steckplätze.
Ist das ein Grund sie mit Dummies zu blockieren? Man holt sich so eine Plattform ja nicht, um die ganzen Lanes nicht zu nutzen, oder?
 
ghecko schrieb:
Ist das ein Grund sie mit Dummies zu blockieren?
Wie willst du sowas sonst auslegen, als 5,25 Zoll Laufwerk? Wo gibt es heutzutage noch Steckplätze dafür? Als Slotkarte ist es schlichtweg noch die beste Lösung und darüber bezieht die Karte ja auch Strom.
 
ghecko schrieb:
Wie ich schon sagte, als Fullsize x16 PCIe Card, mit onboard PCIe Raidcontroller. Dann blockiert man nämlich den Steckplatz nicht, sondern nutzt ihn.
Damit schränkt man die Nutzung ebenfalls ein, so wie es jetzt ist, kann man sich den passenden Controller selbst aussuchen und auch mehrere solche Karten an einem Controller betreiben. Das Argument mit der Blockierung ist keiner, in Systemen wo solche Karten passen würden hat man mehr als genug Slots. Du musst dir die Karte schlichtweg wie eine Backplane vorstellen und in passenden Systemen kann man zum Betrieb auch die Onboard Controller verwenden.
 
Ich sag mal so, wäre es DAS Ding auf das die Workstations und Chia Farmen dieser Welt gewartet hätten, hätte sicher schon jemand die 50k aus dem Ärmel geschüttelt.

Erstmal schauen ob das überhaupt realisiert wird bevor man sich groß drüber streitet wo die Karte Sinn ergibt.
Wie auf der Kickstartet Seite zu sehen ist ließe sie sich auch ohne PCIe Slot betreiben.
 
xexex schrieb:
so wie es jetzt ist, kann man sich den passenden Controller selbst aussuchen und auch mehrere solche Karten an einem Controller betreiben. Das Argument mit der Blockierung ist keiner,
Also, das man sich die Hälfte der verfügbaren Steckplätze dadurch blockiert (und damit die Gesamtbandbreite und die Speichermenge halbiert) ist kein Argument? Okay. Die Controllerkarten brauchen ja auch noch Steckplätze...
Aber immerhin kann man funky Sachen mit der Zuordnung machen und sich den Controller aussuchen. Yay.

Da sollten die lieber ein custom Rack-Gehäuse designen, in dem man die Platinen roh und nicht als PCIe-Karte unterbringt. Es macht einfach keinen Sinn das als Karte auszulegen, den Slot zu blockieren aber die Lanes nicht zu nutzen, egal welche Argumente du dir dafür aus der Nase ziehst.
 
Zuletzt bearbeitet:
ghecko schrieb:
Es macht einfach keinen Sinn das als Karte auszulegen, den Slot zu blockieren aber die Lanes nicht zu nutzen, egal welche Argumente du dir dafür aus der Nase ziehst.
Nur weil du darin keinen Sinn siehst, gilt das nicht als gegeben und ich brauche mir dafür keine Argumente aus der Nase zu ziehen, wie der Hersteller den Einsatz sieht, wird schon auf dem Foto gezeigt.
1625699502736.png

ghecko schrieb:
Da sollten die lieber ein custom Rack-Gehäuse designen,
Das brauchen sie nicht, solche Sachen gibt es längst zu kaufen.
1625699640408.png

Und im Serverbereich gibt es auch schon längst solche Lösungen.
1625699767379.png


PCIe Slots kannst du wie Sand am Meer haben und die Karte hast genau das richtige Format um es universell verwendbar zu machen. Wenn du es nicht so siehst, kann ich es auch nicht ändern.
1625699885965.png

https://onestopsystems.com/pages/pcie-expansion
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mydgard
Kannst aber auch nicht unendlich in reihe schalten, weil der Sata Controller nicht auf dem Adapter ist.
Und die meisten server haben auch limitierte Anzahl an Controllern, wenn es kein Monster gerät ist wie auf dem Bild zu sehen aber da hat es auch "nur" für 3 Karten gereicht.

Denn Preis kann man auch nicht rechtfertigen, die bietet lediglich eine Stromversorgung für SSDs und dann noch mittelalterlich gelöst
 
Zuletzt bearbeitet:
Ich blockiere mir nicht mal gerne mit dem Asus Xonar H6 Dummy einen freien und voll funktionierenden PCIe Slot und hätte ich ein waschechtes Workstation Brett, würde ein solcher Adapter freischwebend auf der leeren, achten PCI Blende landen.

Ein Backplane für 2500$ nur um den teuer erkauften PCIE 4.0 fähigen PLX Chips darin nichtstuend zu sehen, weil der Scaler Adapter über PCIe nur Strom bezieht, wäre keine wirtschaftliche Lösung ohne den noch unnötigen und ebenso teuren PCIe Host und Targetadapter. Für die Storage Scaler Nutzung kann man sich auch die billigen Miner PCIe Erweiterungen rein für die Stromspeisung kaufen und als Dummy Slot nutzen. Oder anders, ich biete gerne 9 gurkige Miner PCIe Riser im Gegentausch für das geile 8 PCIe PLX 96 Lanes Backplane mit PCIe Host/Target Adapter plus Kabel an. :D

Ein HBA und dicke U.2 Lösung mit 7TB gehen gehen nämlich auch in Richtung 2500$, die ein einzelnes Backplane ohne weitere Ausstattung kosten kann. Für die 16 SATA M.2 SSDs bekommt auch schon eine schnelle und große U.2 NVMe.

Dann kann ich mich auch bei U.2 Laufwerken selbst beweihräuchern, weil die Daten gegen Stromausfall mit Pufferelkos geschützt sind. Bei M.2 sieht man das gerne erst mit 22110, die auf dem Scaler leider nicht passen.
M.2 2280. Ein Storage Scaler Preis gegen Power Loss Protection.
Das Storage Scaler Produkt ist nach der langen Zeit beim NVMe Siegeszug tot oder eine Nische einer Nische.

Interessant ist auch die derzeitige Backsituation. Backaufträge für ein T-Shirt mit Stickern und sehr wenige Karten. Kein vergebener Auftrag für 4 oder 10 Stück. Nicht gerade ein überzeugendes Brot, aber es ist noch frisch und wir haben mit heute noch 23 Tage Restlaufzeit. Mal schauen was die News in 23 Tagen noch an Resonanz hervor bringt. Das muss ich mir bis dahin nur merken. 😅
 
  • Gefällt mir
Reaktionen: Bigfoot29 und nille02
Zurück
Oben