News Asus Hyper M.2 Gen5: Auch die SSD-Adapter wechseln auf PCIe 5.0

0x8100 schrieb:
dann nicht möglich, mir wäre kein consumerboard bzw. -cpu bekannt, wo 16mal x1 bifurcation möglich ist.
Was letztlich auch "dumm" wäre, da man dann nur x1 Leistung für einzelne SSDs hätte. Fakt ist jedoch, solche Karten sind teuer und der Kunde erwartet natürlich Höchstleistungen und 100 Anschlüsse für Lau.
 
pcie5 x1 wäre immer noch so schnell wie pcie3 x4, also mehr als genug wenn man einfach nur viel storage haben will. aber da das nur theorie ist, brauchen wir uns darum nicht viele gedanken machen :)
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und person unknown
holdes schrieb:
Hat mal jemand probiert ob die alte Karte nicht auch schon mit PCIe 5 laufen würde?
PCIe5 stellt höhere elektrische Anforderungen an die "Verdrahtung". Wenn diese nicht schon beim Design der Leiterkarte berücksichtigt werden, wird es grenzwertig. Und sobald im Signalweg auch aktive Bauelemente wie z.B Retimer liegen sind die Chancen gering.

Winder schrieb:
Man bräuchte solch eine Karte mit Chipsatz, der die Lanes aufteilt
Also eine Karte mit "PCIE-Switch". Solche Bausteine sind aber teuer und energiefressend.

xexex schrieb:
Was letztlich auch "dumm" wäre, da man dann nur x1 Leistung für einzelne SSDs hätte.
Schon eine PCIe3 Lane wäre aber immer noch ca. 25% schneller als ein SATA-Port. Der im größten Teil der Anwendungsfälle von der Geschwindigkeit ausreicht.

Anzahl der M2-Slots: Wer wirklich viel schnellen SSD-Speicherplatz braucht kann M2 ( und PCIe) auch an U.2/U.3 adaptieren. Und hat damit viel mehr Speicherplatz pro Slot zur Verfügung. Und PCIe-Lanes , die in einem PCIe-Slot "verbraten" werden sind etwas flexibler nutzbar wie solche in einem M.2.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Die Lanes der heutigen CPUs und Boards würden ja in der Regel schon reichen wenn man vorhandene Lanes auch sinnvoll nutzen könnte. Aber wie schon mkossmann schrieb müssten die erweiterungskarten hier schlauer sein.

Ich hab im home server auch den Vorgänger dieser karte am laufen. Sind zwar nur 2 970er evos drinnen weil geht ja ned anders. Könnte die auch aufs board schnallen, nur sind die Temperaturen in der !passiv geschalteten karte um Welten besser als unter den Mobo Abdeckungen.
 
whocares0101 schrieb:
Warum immer nur für 4 SSDs? Ich will 8/16 SSDs auf so einer Karte.
Kannst du bestimmt haben, nur nicht mit NVMe über PCIe sondern ggfs. SATA. Oder du schaust im HEDT Bereich. Der 13900KS hat nur 20 PCIe Lanes. Da würden 5 4x NVMe SSDs drauf gehen... wenn du auf die GPU verzichtest oder sie über den Chipsatz mit geteilter Bandbreite anschließt.
Ryzen sieht nicht viel besser aus.

Du könntest viele SSDs haben, nur eben nicht mit voller Geschwindigkeit. Oder du gehst in den HEDT Bereich und holst dir 4 dieser Karten. PCIe x16 hat eben nur Platz für 4 x4 SSDs.
 
Leider ist es nicht so einfach, Boards mit Bifurcation auszumachen, außer bei Asus, weil sie entsprechend solch eine Adapterkarte bieten. Hätte jetzt auch gerne die Möglichkeit, in meinem Nebensystem solch eine Karte einzubauen, PCIe 5.0 hab ich aber nicht nötig, geht ja aber auch langsamer. (mit nen 5600G geht eh nur PCIe 3.0). Aber mein Board, ein Gigabyte B450-I Aorus Pro WiFi, unterstützt soweit ich es herausgefunden habe kein Bifurication.

Eigendlich wäre es ja kein ganz so großes Problem, ein Lane-Switch zu verbauen um dann 4 oder gar mehr M.2 anzusprechen, ohne dass Bifurication und x16 notwendig wäre. Klar, man erreicht nicht die volle Geschwindigkeit, aber wie oft kommt es vor, dass man auf 4 M.2 gleichzeitig schreibt? Und von wo kommen gerade diese Daten, um dort zu schreiben? Daher wäre es schon gut machbar, dass man 4 M.2 an nur 4 Lanes anbindet und dann per Switch die Leistung aufgeteilt werden kann, aber trotzdem volle Bandbreite auf eine einzelne zur Verfügung steht. In meinem Fall benötige ich auch nicht annähernd die Geschwindigkeiten, aber mit so einer Karte wäre es aufgeräumt und einfach.

Bleibt mir aktuell eigentlich nur ein SATA-Controller und die SATA-SSDs lose im Gehäuse unterzubringen. Hab ein Dan A4 und die "Grafik-Seite" ist bisher ungenutzt, jedoch hab ich auch keine befestigung für SATA frei, müsste man schon rumbasteln.
 
mkossmann schrieb:
Also eine Karte mit "PCIE-Switch". Solche Bausteine sind aber teuer und energiefressend.
Genau darum will ich die Dinger nicht.

mkossmann schrieb:
Schon eine PCIe3 Lane wäre aber immer noch ca. 25% schneller als ein SATA-Port. Der im größten Teil der Anwendungsfälle von der Geschwindigkeit ausreicht.
Ja, mir würde PCIe3 reichen mit 8x2 oder 16x1 SSDs im raid ist die geschwindigkeit pro SSD auch egal.
Aber so könnte man günstige SSDs einfach zusammenfassen wenn mehr speicher benötigt wird.

Penman schrieb:
Der 13900KS hat nur 20 PCIe Lanes. Da würden 5 4x NVMe SSDs drauf gehen... wenn du auf die GPU verzichtest oder sie über den Chipsatz mit geteilter Bandbreite anschließt.
Warum müssen SSDs auch immer mit 4x angebunden werden, mir würde auch 2x oder sogar 1x reichen.
Consumer baords mit weniger als zwei voll beschalteten 16x slots sind auch ein Witz, es müsten mindestens 40 lanes oder mehr sein.

Ozmog schrieb:
Leider ist es nicht so einfach, Boards mit Bifurcation auszumachen
Server boards sollten bifurcation können, für NAS/home server kann man daher gebrauchte epyc mit 128 lanes nehmen.

Und "bezahlbare" 16x4 TB in einem PCIe slot wären schon nicht schlecht :)
 
Ozmog schrieb:
in meinem Nebensystem solch eine Karte einzubauen, PCIe 5.0 hab ich aber nicht nötig, geht ja aber auch langsamer. (mit nen 5600G geht eh nur PCIe 3.0).
Dann kannst du wie hier bereits angemerkt die Karte von Sabrent nutzen
1696928472230.png

https://sabrent.com/collections/memory-accessories/products/ec-p3x4
Ergänzung ()

whocares0101 schrieb:
Und "bezahlbare" 16x4 TB in einem PCIe slot wären schon nicht schlecht
Wer das Geld für 16x4TB M.2 SSDs hat, der sollte auch das Geld für eine Raidkarte haben, an der er diese betreiben kann. Der "Rest" kauft sich einfach einen ausreichend großen U.2/U.3 Datenträger mit einem M.2 Adapterkabel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai und Naitrael
mkossmann schrieb:
PCIe5 stellt höhere elektrische Anforderungen an die "Verdrahtung". Wenn diese nicht schon beim Design der Leiterkarte berücksichtigt werden, wird es grenzwertig. Und sobald im Signalweg auch aktive Bauelemente wie z.B Retimer liegen sind die Chancen gering.

Schon klar, die Lanes sind auf solchen Karten aber bereits auf dem möglichst kurzem Wege ausgeführt, sieht man auf dem Foto auch. Ich kann mir nicht vorstellen, dass sich daran tatsächlich viel geändert hat ;).
 
Ozmog schrieb:
--Bitte die Zitierregeln beachten--
Die Frage ist immer, wie viele Leute das brauchen.

  • Nur Kunden auf Desktop-Plattformen
  • Davon nur die, denen ~5 M.2-NVMe Drives brauchen/wollen (MBs mit 2-3 M.2 onboard sind normal, abseits der GPU sind noch mal so 2 PCIe Slots übrig für je eine M.2
  • Davon nur die, die kein Bifurcation haben

Das sind meines Erachtens
a) nicht viele und die haben
b) den falschen Untersatz gewählt

Aber ja, der Aufpreis für die kompakteste, schnellste und flexibelste Lösung in einem Paket ist hoch, war er immer und wird er immer sein.

Vllt gebraucht einfach ne gebrauchte X299 oder X399 Plattform dafür erwerben? Da gehen bis zu 28x PCIe 3.0x4 NVMe.
 
Zuletzt bearbeitet von einem Moderator:
whocares0101 schrieb:
Warum müssen SSDs auch immer mit 4x angebunden werden, mir würde auch 2x oder sogar 1x reichen.
Consumer baords mit weniger als zwei voll beschalteten 16x slots sind auch ein Witz, es müsten mindestens 40 lanes oder mehr sein.
Gute Frage. Im Prinzip spricht ja nichts dagegen, über den Chipsatz wieder mehr Lanes bereitzustellen, die sich dann die 4x Lanes zur CPU Teilen. Dahinter dann noch ein Chipsatz und noch einer... Oder vielleicht 2 Chipsätze an der CPU? Keine Ahnung, ob das geht. Aber vielleicht tut eine PCIe-Bifurcation x16 to x4x4x4x4 Expansion Card ja schon den Job. Wobei die sichtbaren Leiterbahnen nichts Gutes versprechen. :freak:
Oder eine andere Adapterkarte mit der man einen ganzen Turm bauen kann. :D
 
Die PCIe 5 SSDs sind doch brutale Hitzköpfe oder? Vier davon in dem Ding, ... das verglüht doch. ^^
 
xexex schrieb:
Wer das Geld für 16x4TB M.2 SSDs hat, der sollte auch das Geld für eine Raidkarte haben, an der er diese betreiben kann
Die Raidkarten mit PCIe switch brauchen halt auch mehr Strom und machen so ein Setup noch teurer.

xexex schrieb:
Der "Rest" kauft sich einfach einen ausreichend großen U.2/U.3 Datenträger mit einem M.2 Adapterkabel.
Billing sind 16 SSDs nicht aber U.2/3 mit >30TB kosten ~90€/TB, wohingegen 2TB M.2 SSDs ~40€/TB kosten, also weniger als die hälfte.
Und 4TB SSDs gibts auch für um die 50€/TB.
https://geizhals.de/?cat=hdssd&xf=252_1920~4832_3
https://geizhals.de/?cat=hdssd&xf=252_30720

Penman schrieb:
Im Prinzip spricht ja nichts dagegen, über den Chipsatz wieder mehr Lanes bereitzustellen, die sich dann die 4x Lanes zur CPU Teilen
Mit PCIe5 zum Chipsatz und dann würde ja auch PCIe4 locker reichen, je mehr je besser.
Boards werden immer teurer aber die Hersteller geizen bei den PCIe lanes.

Penman schrieb:
Aber vielleicht tut eine PCIe-Bifurcation x16 to x4x4x4x4 Expansion Card ja schon den Job. Wobei die sichtbaren Leiterbahnen nichts Gutes versprechen.
Jeder Slot ist halt nur x4 und eine Karte mit bifurcation würde hier nicht mehr funktionieren.
Für günstige SAS Controller wäre die Idee nicht schlecht, braucht aber noch ein riser-cable und Platz im Gehäuse.

Penman schrieb:
mit der man einen ganzen Turm bauen kann
Nur leider würde das nicht funktionieren.
 
  • Gefällt mir
Reaktionen: Penman
cypeak schrieb:
es gibt eine unterteilung in consumer und hedt/workstation/server plattformen und für die allermeisten consumer ist das was intel und amd in deren desktopsparten anbieten absolut ausreichend; da sollte man die kirche im dorf lassen.
wenn man höhere ansprüche hat, dann sollte man auch zum entsprechenden marktsegment greifen.

Würde ich ja gern... aber allem Anschein nach ist AMD nicht mehr am HEDT-Segment (64x PCIe, 4 Speicherkanäle) interessiert und will nur noch die Workstation-Schiene (Threadripper Pro) vermarkten.

Und ja, mehr als 20-28 Lanes hätte ich gern - aber 128 sind dann doch ein wenig sehr viel...
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
whocares0101 schrieb:
Die Raidkarten mit PCIe switch brauchen halt auch mehr Strom und machen so ein Setup noch teurer.
Wer sich für 16 M.2 Datenträger entscheidet, macht es nicht aus Jux und Tollerei, genauso wie jemand der 16 Festplatten nutzt. Es ist dann ein Hobby oder semiprofessionelle Nutzung und da kommt es dann auf ein paar Watt nicht an. Für den "Rest" ist sowas völlig irrelevant, die kommen auch mit 1-3 SSDs aus.

Ich bin allerdings bei dir, mit steigenden PCIe Geschwindigkeiten, sollte man die 4x Anbindung und den gesamten M.2 Anschluss mal komplett überdenken. Sachen wie SATA Express sind aber nun mal gescheitert und U.2/U.3 bei Consumerhardware nicht angekommen.
 
Zuletzt bearbeitet:
Araska schrieb:
Und ja, mehr als 20-28 Lanes hätte ich gern
wie bereits geschrieben: ist eine frage der erwartungen.
ich gehe davon aus dass die lanes bzw. die verfügbare bandbreite mit der zeit steigen wird; vielleicht nicht sofort..aber mit der zeit zwangsläufig.
 
xexex schrieb:
Wer sich für 16 M.2 Datenträger entscheidet, macht es nicht aus Jux und Tollerei, genauso wie jemand der 16 Festplatten nutzt.
Der Großteil meiner Daten ist auf HDDs aber für einige Dinge braucht man eben SDDs oder es ist zu langsam, ich suche immer nach möglichst günstigen Lösungen.

xexex schrieb:
Ich bin allerdings bei dir, mit steigenden PCIe Geschwindigkeiten, sollte man die 4x Anbindung und den gesamten M.2 Anschluss mal komplett überdenken
Wenn zwei M.2 gestapelt würden könnte man x4 mit einer SSD haben und bei 2 SSDs 2x2 per bifurcation, so könnte man die M.2 Kapazität verdoppeln, Kühlung/heat sink wäre halt ein Problem bei high-end SSDs.
 
mkossmann schrieb:
Also eine Karte mit "PCIE-Switch". Solche Bausteine sind aber teuer und energiefressend.

Noch mehr Lanes in der CPU lohnt sich aber für AMD und Intel auch nicht. Die meisten Endanwender haben halt nur minimale Anforderungen.

Für bessere Mainboards muss man dann zwangsläufig auf extra Chips setzen, die die Lanes weiter aufteilen.
 
G3cko schrieb:
Dazu kommt, dass die Karte bei Intel ohnehin uninteressant ist, da Intel PCIe-Bifurcation nur mit Intel-SSDs untersützt. Glaube das hat sich bisher nicht geändert.
Die Fakten sehen anders aus, Samsung M2 (z.B.) Onboard als auch mit der Hypercard funktionieren Bestens.
Sowohl mit VROC als auch x4x4x4x4
 
Zurück
Oben