Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test 9100 Pro ohne PCIe 5.0: So schnell ist Samsungs High-Speed-SSD mit PCIe 4.0
- Ersteller MichaG
- Erstellt am
- Zum Test: 9100 Pro ohne PCIe 5.0: So schnell ist Samsungs High-Speed-SSD mit PCIe 4.0
Rotznase6270
Lt. Junior Grade Pro
- Registriert
- Aug. 2022
- Beiträge
- 437
Wenn ich mir so die Ladezeiten bei Spielen anschaue, gibt es derzeit in diesem Szenario keinen wirklichen Grund von PCI-E 4.0 auf 5.0 zu wechseln.
SirKhan
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.026
Wolfgang.R-357: schrieb:dafür steigt aber der Verbrauch und die Temps
Bei solchen Tests sollte man daher auch eher Anfangen statt Verbrauch (Watt) die Energie (Wattstunden) zu messen.R++ schrieb:Stromverbrauch und Hitzeentwicklung.
In der Realität schreibt/liest man ja auch eine bestimme Menge Daten (z.B. Steam-Library oder große Dateien). Und wenn die eine SSD trotz höherem Verbrauch beim Kopieren entsprechend viel schneller damit fertig ist, kann die Energie (und damit auch die Effizienz) dennoch geringer sein.
Die SSD hier schreibt und liest doppelt so schnell in PCIe 5.0 in CrystalDiskMark und braucht dabei 50% mehr Leistung. Bei gleicher Datenmenge ist die SSD also effizienter in PCIe 5.0 (0,5 Zeit mal 1,5 Leistung = 0,75 Energie, also braucht sie nur 75% der Energie wie mit PCIe 4.0).
Bei den Ladevorgängen von Spielen und Programmen werden halt eher selten größere, zusammenhängende Daten gelesen. Da spielen halt die Datenraten bei wahlfreiem Zugriff eine Rolle und nicht die immer größer werdenden sequentuellen Datenraten. Und halt die Zugriffszeit ist da relevant, aber die hat sich mit den PCIe-Generationen ja kaum geändert.Rotznase6270 schrieb:gibt es derzeit in diesem Szenario keinen wirklichen Grund von PCI-E 4.0 auf 5.0 zu wechseln.
Was auch der Grund ist, warum ich aktuell überlege, eine Intel Optane als Boot-SSD zu kaufenCool Master schrieb:Kein Mensch wird den Unterschied von 26 zu 32 geschweige zu 27 µs fühlen. Genau daher kommt der Speed einer SSD die MB/s bzw. GB/s sind Nebensache.
Den Unterschied in Latenz von normaler SSD zu Optane merkt man dann doch deutlich.
Eine P5800X ist leider undenkbar teuer, aber eine mittelgroße P4800X ist durchaus machbar wenn man es will.
Wolfgang.R-357:
Commander Pro
- Registriert
- Juli 2021
- Beiträge
- 2.356
Hättest du meinen ganzen Beitrag zitiert, wäre klar auf was ich hinaus wollt, die synthetischen interessieren mich nicht die Bohne, real in echten praktischen Anwendungen verbessert sich die Leistung kaum - extrem weit weg von doppelt!SirKhan schrieb:Die SSD hier schreibt und liest doppelt so schnell in PCIe 5.0 in CrystalDiskMark
foofoobar
Rear Admiral
- Registriert
- Dez. 2011
- Beiträge
- 5.225
Cool Master schrieb:Das hier ist die wichtigste Metrik:
Anhang anzeigen 1601536
Kein Mensch wird den Unterschied von 26 zu 32 geschweige zu 27 µs fühlen. Genau daher kommt der Speed einer SSD die MB/s bzw. GB/s sind Nebensache.
Die Latenz ist ja fürchterlich!!!
Hier mal ein paar Messungen unter Linux mit einer 980 Pro mit 0,5 TB mit verschiedenen parallelen Zugriffen und verschiedenen Queuedepths:
Code:
$ sh ./stat.sh
mul jobs depth clat iops bw
1 1 1 15.56 48.50 199.00
2 1 2 13.01 130.00 534.00
4 1 4 11.68 267.00 1095.00
8 1 8 26.76 266.00 1089.00
12 1 12 40.81 272.00 1115.00
16 1 16 56.70 267.00 1092.00
2 2 1 15.16 99.30 407.00
4 2 2 14.01 224.00 919.00
8 2 4 12.01 524.00 2146.00
16 2 8 26.65 534.00 2189.00
24 2 12 41.70 534.00 2189.00
32 2 16 56.62 534.00 2187.00
4 4 1 15.10 199.00 815.00
8 4 2 16.27 384.00 1573.00
16 4 4 17.67 790.00 3235.00
32 4 8 25.90 1119.00 4585.00
48 4 12 39.64 1128.00 4621.00
64 4 16 53.77 1131.00 4631.00
8 8 1 15.24 393.00 1611.00
16 8 2 24.54 543.00 2223.00
32 8 4 26.57 1080.00 4422.00
64 8 8 52.70 1158.00 4744.00
96 8 12 80.15 1160.00 4752.00
128 8 16 107.73 1160.00 4749.00
12 12 1 17.21 529.00 2167.00
24 12 2 24.07 828.00 3391.00
48 12 4 38.86 1105.00 4527.00
96 12 8 79.62 1137.00 4657.00
144 12 12 121.87 1145.00 4691.00
192 12 16 163.30 1140.00 4670.00
16 16 1 24.61 541.00 2217.00
32 16 2 34.18 832.00 3406.00
64 16 4 52.29 1114.00 4564.00
128 16 8 107.19 1135.00 4649.00
192 16 12 162.30 1142.00 4677.00
256 16 16 215.43 1134.00 4644.00
$ sh ./stat.sh | sort -n -k4
mul jobs depth clat iops bw
4 1 4 11.68 267.00 1095.00
8 2 4 12.01 524.00 2146.00
2 1 2 13.01 130.00 534.00
4 2 2 14.01 224.00 919.00
4 4 1 15.10 199.00 815.00
2 2 1 15.16 99.30 407.00
8 8 1 15.24 393.00 1611.00
1 1 1 15.56 48.50 199.00
8 4 2 16.27 384.00 1573.00
12 12 1 17.21 529.00 2167.00
16 4 4 17.67 790.00 3235.00
24 12 2 24.07 828.00 3391.00
16 8 2 24.54 543.00 2223.00
16 16 1 24.61 541.00 2217.00
32 4 8 25.90 1119.00 4585.00
32 8 4 26.57 1080.00 4422.00
16 2 8 26.65 534.00 2189.00
8 1 8 26.76 266.00 1089.00
32 16 2 34.18 832.00 3406.00
48 12 4 38.86 1105.00 4527.00
48 4 12 39.64 1128.00 4621.00
12 1 12 40.81 272.00 1115.00
24 2 12 41.70 534.00 2189.00
64 16 4 52.29 1114.00 4564.00
64 8 8 52.70 1158.00 4744.00
64 4 16 53.77 1131.00 4631.00
32 2 16 56.62 534.00 2187.00
16 1 16 56.70 267.00 1092.00
96 12 8 79.62 1137.00 4657.00
96 8 12 80.15 1160.00 4752.00
128 16 8 107.19 1135.00 4649.00
128 8 16 107.73 1160.00 4749.00
144 12 12 121.87 1145.00 4691.00
192 16 12 162.30 1142.00 4677.00
192 12 16 163.30 1140.00 4670.00
256 16 16 215.43 1134.00 4644.00
$ sh ./stat.sh | sort -n -k1
mul jobs depth clat iops bw
1 1 1 15.56 48.50 199.00
2 1 2 13.01 130.00 534.00
2 2 1 15.16 99.30 407.00
4 1 4 11.68 267.00 1095.00
4 2 2 14.01 224.00 919.00
4 4 1 15.10 199.00 815.00
8 1 8 26.76 266.00 1089.00
8 2 4 12.01 524.00 2146.00
8 4 2 16.27 384.00 1573.00
8 8 1 15.24 393.00 1611.00
12 1 12 40.81 272.00 1115.00
12 12 1 17.21 529.00 2167.00
16 1 16 56.70 267.00 1092.00
16 2 8 26.65 534.00 2189.00
16 4 4 17.67 790.00 3235.00
16 8 2 24.54 543.00 2223.00
16 16 1 24.61 541.00 2217.00
24 2 12 41.70 534.00 2189.00
24 12 2 24.07 828.00 3391.00
32 2 16 56.62 534.00 2187.00
32 4 8 25.90 1119.00 4585.00
32 8 4 26.57 1080.00 4422.00
32 16 2 34.18 832.00 3406.00
48 4 12 39.64 1128.00 4621.00
48 12 4 38.86 1105.00 4527.00
64 4 16 53.77 1131.00 4631.00
64 8 8 52.70 1158.00 4744.00
64 16 4 52.29 1114.00 4564.00
96 8 12 80.15 1160.00 4752.00
96 12 8 79.62 1137.00 4657.00
128 8 16 107.73 1160.00 4749.00
128 16 8 107.19 1135.00 4649.00
144 12 12 121.87 1145.00 4691.00
192 12 16 163.30 1140.00 4670.00
192 16 12 162.30 1142.00 4677.00
256 16 16 215.43 1134.00 4644.00
$
Code:
for jobs in 1 2 4 8 12 16
do
for depth in 1 2 4 8 12 16
do
printf "===== %3d %3d %3s\n" $(($jobs * $depth)) $jobs $depth
sudo fio --readonly --direct=1 --name=test --size=10G --bs=4k --rw=randread --filename=/dev/nvme2n1 --numjobs=$jobs --ioengine=libaio --iodepth=$depth --group_reporting
done
done
Code:
awk '
BEGIN { printf("%10s %10s %10s %10s %10s %10s\n", "mul", "jobs", "depth", "clat", "iops", "bw"); }
/^====/ && first { printf("%10d %10d %10d %10.2f %10.2f %10.2f\n", mul, jobs, depth, clat, iops, bw); mul = $2; jobs = $3; depth = $4; }
/^====/ && !first++ { mul = $2; jobs = $3; depth = $4; }
/^ *clat \(/ { gsub(/^.+=/,"", $5); gsub(/,$/,"", $5); clat = $5 * 1; if ($2 ~ /nsec/) { clat /= 1000; } }
/^ *read:/ { gsub(/^.+=/,"", $2); gsub(/k,$/,"", $2); iops = $2 * 1; gsub(/^\(/, "", $4); gsub(/MB\/s\)/, "", $4); bw = $4; }
END { printf("%10d %10d %10d %10.2f %10.2f %10.2f\n", mul, jobs, depth, clat, iops, bw); mul = $2; jobs = $3; depth = $4; }
' /tmp/out
SirKhan
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.026
@Wolfgang.R-357: kommt immer auf den Anwendungsfall an. Für Anwendungen und Spiele macht es nicht viel Unterschied. Wenn man für AIs immer riesige Dateien in die GPU lädt und umlädt z.B. könnte ich schon einen Vorteil sehen.
Oder halt wenn die Anzahl der Lanes reduziert werden. Slots mit PCIe 5.0x2 sind so gut wie 4.0x4 bzw. nur eine Lane PCIe 5.0x1 so gut wie 3.0x4. Da die Lanes oft recht limitiert sind, sehe ich hier noch viel mehr Potential für PCIe 5.0-SSDs wie tatsächlich mit vollen vier Lanes. Die braucht man allerdings, wenn man noch gute Geschwindigkeiten mit älteren SSDs in dem Slot haben will.
Oder halt wenn die Anzahl der Lanes reduziert werden. Slots mit PCIe 5.0x2 sind so gut wie 4.0x4 bzw. nur eine Lane PCIe 5.0x1 so gut wie 3.0x4. Da die Lanes oft recht limitiert sind, sehe ich hier noch viel mehr Potential für PCIe 5.0-SSDs wie tatsächlich mit vollen vier Lanes. Die braucht man allerdings, wenn man noch gute Geschwindigkeiten mit älteren SSDs in dem Slot haben will.
danke für denn Test an dem man WUNDERBAR sieht, das es >6000 MB/s nicht braucht im Alltag, wenn man nicht sequenziell schreibt / ließt die ganze Zeit !
mehr als 4000 MB/s werden nicht benötigt - die sollen lieber an der Effizenz und vorallem an der Kapazität arbeiten !
mehr als 4000 MB/s werden nicht benötigt - die sollen lieber an der Effizenz und vorallem an der Kapazität arbeiten !
Schleicher Vergleich...yahlov schrieb:Also normalo User wird man nicht merken ob man 100 mbit oder 1gbit oder sogar 25gbit anschluß hat.
drago-museweni
Admiral Pro
- Registriert
- März 2004
- Beiträge
- 9.575
Ich finde die 9100Pro einfach total überteuert auch für etwas neues ist das einfach zuviel, 4TB kosten bei der 990Pro 290€ was auch schon viel ist aber da bekommt man bei der 9100Pro nur 2TB (260€), von 4TB sprechen wir lieber nicht.
Wollte auch unbedingt eine 5.0 Samsung für einen neuen PC aber so wird das nichts, da würde ich aktuell lieber auf die 990Pro greifen.
Wollte auch unbedingt eine 5.0 Samsung für einen neuen PC aber so wird das nichts, da würde ich aktuell lieber auf die 990Pro greifen.
Das stimmt so pauschal eben nicht. Kommt halt immer auf die Anwendung an.Wolfgang.R-357: schrieb:die synthetischen interessieren mich nicht die Bohne, real in echten praktischen Anwendungen verbessert sich die Leistung kaum - extrem weit weg von doppelt!
Beispielsweise war das nach dem Wechsel von SATA-SSDs auf NVMe 4.0, dürfte aber von 4.0 auf 5.0 nicht groß abweichen:
Erstellen eines Abbildes vom Datenträger mit dem OS auf einen zweiten Datenträger, das war schon ein gewaltiger zeitlicher Sprung von SATA auf NVMe. Generell dürfte jede Kopieraktion zwischen zwei NVMe wesentlich schneller sein unter 5.0. Dieses Szenario ist im Artikel aber nicht aufgeführt.
Nur wie oft kommt es im privaten Umfeld vor, dass man ein Datenträgerabbild erstellt, als dass sich in Summer dann die Zeitersparnis ins Gewicht fällt. Eine vollständige Sicherung macht man doch höchsten mal, wenn man sich ein Backup initial einrichtet und danach wird inkrementell gesichert.Delgado schrieb:Erstellen eines Abbildes vom Datenträger mit dem OS auf einen zweiten Datenträger, das war schon ein gewaltiger zeitlicher Sprung von SATA auf NVMe.
Selbst wenn man, warum auch immer, einmal im Monat ein volles Datenträgerabbild ziehen sollte, dauert das bei einer 2 TB Sata-SSD etwa eine Stunde. Kann mir nicht vorstellen, dass privat diese Stunde, in der PC dann und wann mal evtl. nicht nutzbar ist, jetzt so einen großes Problem darstellt. Ist ja nicht wie im beruflichen Umfeld, wo es ggf. zu Lasten der Arbeitszeit geht.
Innerhalb der NVMe-SSD ist der Vorteil von PCIe 4.0 oder gar 5.0 gegenüber PCIe 3.0 sogar noch irrelevanter. Da würde die Zeitersparnis bei einem 2 TB Datenträgerabbild bei gerade mal ~9 Minuten (PCIe 3.0: 11 Minuten, PCIe 5.0: 2,5 Minuten) liegen. Wer jetzt privat unbedingt diese paar Minuten Zeitersparnis braucht bei einem gelegentlich erstellten Datenträgerabbild braucht, dürfte eher andere Probleme haben als eine "zu langsame" SSD.
Dann hast du offenbar noch nie versucht, größere Datenmengen am Stück zu kopieren.ridgero schrieb:Bis heute check ich es nicht, wo man den Benefit von schnellen NVMEs vs SATA SSDs wirklich bemerkt.
Ähnliche Themen
- Antworten
- 150
- Aufrufe
- 10.281
- Antworten
- 224
- Aufrufe
- 27.531
- Antworten
- 35
- Aufrufe
- 8.107