Notiz In eigener Sache: Aktuelle Vorschläge für SSD-Praxistests gesucht

Mich würde mal interessieren, ob es Software (Spiele) gibt, die wirklich von einer NVMe PCIe SSD profitieren können oder nicht.
 
Wieso sieht die Performance beim streaming aus? Über Steam können ja 3 Leute zu schauen und Streamer auf Twitch und yt gibt es auch
 
Cooder schrieb:
Temperatur, Haltbarkeit und Stromverbrauch sind die Dinge, die mich bei einem Praxistest interessieren. Das Tempo ist mir egal.

Ja, da gebe ich dir recht - macht mittlerweile "mehr" aus im normalen Gebrauch
 
Für mich sind typische Praxissituationen:
- Hochfahren eines "zugemüllten" Systems (Win10+ Steam, GDrive mit 15GB Daten, Onedrive, NVidia GeForce, Logitech Software) dazu vielleicht noch Chrome mit x Tabs, Discord, Teamspeak, etc. Ihr könnt euch ja austoben.
- Starten von Spielen: Anno mit großem Save-Game zum Beispiel

Ihr habt im Artikel geschrieben, dass der Test nicht im CPU Limit hängen darf. Eigentlich fänd ich dies mal einen interessanten Punkt! Ab wann hängt man da eigentlich drin? Das ist sicherlich noch mal eine andere Baustelle aber eine für mich interessante Frage, da es für manche Nutzer eventuell gar keinen Sinn hat eine schnelle NVME SSD zu verbauen, da man dann im CPU Limit hängen würde.
 
MrEisbaer schrieb:
Ich lese den Betreff "[...]für SSD-Praxistest" und direkt springt einen z.B. SQL Datenbank, VM etc. an.
Ich muss schon sagen, sehr Praxisnahe, weil ja auch jeder so etwas nutzt.

Sicherlich kann man es Testen, aber dann ist dann weniger ein Praxistest.

Praxistest ist eher:
...

DAS ist was ich mir unter Praxistest vorstelle, da dies der größte Teil der User macht.
Nur ein Einstelliger % Betrag wird mit DB's & VM'sHantieren im Alltag.
Du hast den Begriff Praxis mich verstanden.
Der Begriff hat nichts damit zu tun, was die Allgemeinheit macht. Es unterscheidet lediglich von theoretischen benchmarks, die im Alltag nicht vorkommen.

Und während du viel spielst und selbige installierst, arbeiten andere eben mit ihrem Rechner.
Das was du aufzählst ist durchaus auch interessant. Muss aber auch Unterschiede zwischen den SSDs zeigen, sonst ist der Test ungeeignet.
Der Tests soll schließlich die SSD bewerten und nicht zeigen, dass in dem getesten Fall alle gleich schnell sind. Das kann man mal in einem einzelnen Grundlagenartikel machen. Es ist aber unsinnig, dies mit jeder SSD zu wiederholen.
 
Ralf74 schrieb:
Mein Vorschlag:
Kompilieren eines großen C++ Projektes z.B. Linux-Kernel. Bei tausenden von Dateien kommt es hier auf Zugriffszeiten und die Lesegeschwindigkeit bei kleinen Dateien an. Mit so vielen Kernen wie möglich kompilieren um mehr Last auf der SSD zu erzeugen.
Dito. Eine feste gcc Version bzw. Visual C++ sowie ein OpenSource Programm (feste Linux Kernel Version, feste GIMP Version, ...) sorgen für reproduzierbare und automatisiert messbare Ergebnisse (Ausgabe der Compiler).
 
So ganz spezielle Wünsche für Praxistests bei SSDs habe ich so nicht, da viele Ergebnisse eh im normalen Alltag kaum auffallen werden, sprich ob ein Word oder Excel in 2 Sekunden schneller geladen ist, oder sowas.

Gäbe es denn irgendwie eine Möglichkeit, gängige Games wie Battlefront 2, GTA und auch ältere Games wie ein Herr der Ringe online mit einzubeziehen? Ladeverhalten bis zum Einloggen, wo danach eh die Internetverbindung mehr Ausschlag gibt?
 
SKu schrieb:
Mich würde mal interessieren, ob es Software (Spiele) gibt, die wirklich von einer NVMe PCIe SSD profitieren können oder nicht.

Mich auch!
 
1:1 Backup eines älteren Windows mit dd machen und anschließend eine Defragmentierung mit Konsolidierung (Parameter /X) durchführen. Dauert ewig. Defrag macht zwar auf SSDs keinen Sinn, aber für den Speedtest wäre es vielleicht ganz gut.
 
Für mich sind eigentlich nur die Kopiertests wirklich wichtig. Ansonsten habe ich in meinem Alltag keine nennenswerten Wartezeiten.

Aber ich möchte anregen, dass der Benchmarkparkour möglichst selbst am eigenen Rechner nachgestellt werden kann. (Sofern das lizenzrechtlich möglich ist) Das bedeutet, das für Kopiertests, Datenbanktests, Kompiliertests, ... bitte öffentliche Datensätze verwendet werden, die man sich dann von der Originalquelle oder (besser) von CB herunterladen kann. So kann man seine eigene Hardware testen und bekommt vielleicht ein besseres Gefühl was die Balkenlängen tatsächlich bedeuten.
 
Ich denke man sollte sich eher die Frage stellen ob die ganzen Tests überhaupt notwendig sind, denn im Grunde ist der Unterschied bei SSDs so marginal, dass es schlichtweg überhaupt keine Bedeutung im Alltag hat ob da irgendwo 10% mehr oder weniger rauskommt.
Evtl. spart man sich die Zeit auch einfach für andere Dinge/Tests/Hardware.
Die wirklich interessanten Dinge (z.B. die Ausfallquote) könnt ihr eh nicht messen.

Ansonsten fände ich ebenfalls ein Szenario a la "Ich importiere x Mio Datensätze in MySQL und lasse dann nochmal x Mio UPDATE-Queries da drüber laufen" am ehestens hilfreich und geeignet.
 
Ralf74 schrieb:
Mein Vorschlag:
Kompilieren eines großen C++ Projektes z.B. Linux-Kernel. Bei tausenden von Dateien kommt es hier auf Zugriffszeiten und die Lesegeschwindigkeit bei kleinen Dateien an. Mit so vielen Kernen wie möglich kompilieren um mehr Last auf der SSD zu erzeugen.

Die Idee finde ich als Ergänzung gut. Dazu ein paar fiese hdparm-Aufrufe. Mit dd gibt es einige fiese Ansätze eine SSD zu quälen/zu beschäftigen.

Wo wir grade bei Linux sind: Spalte in der Übersichtstabelle zu "Firmware Update unter Linux möglich"
 
SKu schrieb:
Mich würde mal interessieren, ob es Software (Spiele) gibt, die wirklich von einer NVMe PCIe SSD profitieren können oder nicht.

Gibt es, z.B. The Division profitiert bei den Ladezeiten beim Porten deutlich (20% schneller).
So wirds bei einigen (Open-World-)Games sein, aber bei den Vorgaben aus dem Artikel sind diese eigentlich alle ziemlich unbrauchbar.

Alternativ müsste man das von der anderen Seite angehen und bei Spieletests die Ladezeiten zwischen einer SATA und einer NVMe SSD vergleichen.
 
Ich habe vor Kurzem meine SSDs mit einzelnen, vorbereiteten Dateiordnern getestet. In jedem der Ordner lagen verschiedene Testdateien, zum Beispiel war ein Ordner gefüllt mit 10.000 Dateien zu je 0 Bytes, der Nächste mit 512 Bytes, der Nächste mit 1 Kbyte, 4kByte, 16kByte, 64kByte, usw. usf bis rauf auf 1 GB große Testdateien (dann natürlich keine 10.000 Dateien mehr).

Zu guter Letzt sollte noch ein "Misch-Ordner" dienen, in dem viele Dateien der verschiedensten Dateigrößen liegen.

Unterm Strich lässt sich so mit Sicherheit - in Bezug auf Datendurchsatz - ein sehr praxisnaher Rückschluss ziehen.

Cya, Mäxl
 
MrEisbaer schrieb:
Ich lese den Betreff "[...]für SSD-Praxistest" und direkt springt einen z.B. SQL Datenbank, VM etc. an.
Ich muss schon sagen, sehr Praxisnahe, weil ja auch jeder so etwas nutzt.

Ja sorry das es nicht nur Zockerkiddies gibt sondern auch so komische Leute die mit ihrem PC arbeiten...

Mich würden vor allem auch der Einfluss auf Compile-Zeiten (C++ oder für mich sogar lieber C#) interessieren. Bei einem entsprechend großem Projekt und einer dicken Multicore CPU sollte der Datenträger durchaus einen Einfluss haben. Ein DB Benchmark wär auch nicht ganz uninteressant.

Bei deinen Beispielen dagegen muss ich halt sagen, das bei Spiele-Installation eh die Internetleitung begrenzt (kommt ja alles über Steam & Co.), bei DVD und Bluray begrenzt das Laufwerk (und das Verschieben danach kann man auch am CDM ablesen) und Windows installier ich vielleicht alle Jubeljahre mal neu. Ok, ne LibreOffice Installation (und von mir aus auch ein Game das lokal als Installationspaket vorliegt) von ner RAM-Disk aus könnte ganz interessant sein, so als Beispiel für Installationen an sich. Beim Backup dürfte im Normalfall auch das Backup-Ziel die Bremse sein, nicht die SSD.
 
Alchemist schrieb:
- Starten von Spielen: Anno mit großem Save-Game zum Beispiel
Anno 1404 siehe die beiden folgenden Postings. Das sind die Ergebnisse der letzten Woche.

https://www.computerbase.de/forum/t...prung-weiter-aus.1763932/page-5#post-21134892
Unten die Ergänzung: https://www.computerbase.de/forum/threads/ssd-970-evo-pro-im-test-samsung-baut-den-vorsprung-weiter-aus.1763932/page-6#post-21138072



@Jesterfox

Hast du ein C# Beispiel? Bzw. Open Source Projekt?
 
Zuletzt bearbeitet:
Praxisrelevante Tests bei denen normale Desktop Systeme nicht ins CPU-Limit rennen und die SSDs noch einen irgendwie relevanten Unterschied bringen werdet ihr kaum finden. Das Relevanteste sind noch irgendwelche Kopiervorgänge.

Zu den gemachten Vorschlägen:

Datenbanken
Wenn ihr Datenbanken wollte, bitte die Configs nicht derart verschandeln, dass die Datenbank künstlich hohe I/O-Lasten erzeugt. Was auch die Verwendung von SQLite ausschließen sollte.
Macht im Zweifelsfall den Testdatensatz 10x so groß wie den verfügbaren Arbeitsspeicher aber verschandelt nicht die Konfiguration. Wenn die CB-Redaktion meint, dass Datenbankanwendungen praxisrelevant sind, bitte eröffnet eine Diskussion dazu. Typischerweise kann man immer Testfälle bauen, die das Ergebnis quasi vorgeben aber mit realen Anwendungen sehr wenig zu tun haben.


Virtuelle Maschinen
Da bringen SSDs (die nicht direkt an den Gast durchgereicht werden) sehr wenig. Damit testet man hauptsächlich wie gut die Virtualisierungssoftware, das Betriebssystem und die CPU Kontextwechsel durchführen können.
 
Zuletzt bearbeitet:
Ich denke auch ein CPU Limit von vorne herein komplett auszuschließen ist der falsche Weg. Ok, wenn man absolut keinen Unterschied feststellen kann ist es vielleicht sinnfrei das jedesmal zu testen, aber zumindest einen Sonderartikel der klarstellt welche Last von SSDs profitiert und welche nicht sollte es schon wert sein.
 

Ähnliche Themen

Antworten
37
Aufrufe
38.222
Zurück
Oben