Nächste(r) SSD-Test(s) - Was wollt ihr sehen?

Die IOPS (Input/Output Operations Per Second) sagen aus, wieviele angefragte Aktionen pro Sekunde ausgeführt werden.

Ein Beispiel (stark vereinfacht):
Das Programm Firefox fragt nach einer Datei mit einer Größe von 10KB (=1 IO) und das Programm Skype fragt nach einer 100 KB Datei (=1 IO). Nehmen wir an, dass die Bearbeitung der beiden Anfragen genau eine Sekunde dauert. Dann hätten wir eine Leistung von 2 IOPS.
Wie Eggcake schon erwähnt hat, hängen die IOPS also sehr stark von der Dateigröße ab. Im Anhang sieht man z.B. die von mir gemessenen IO-Größen beim Bootvorgang mit anschließendem Start mehrerer Anwendungen. Davon sind etwa 90 Prozent Reads. Im Kaufberatungsthread war ich auch noch darauf eingegangen wie die Outstanding IOs aussahen.

Das die SSDs so hohe IOPS erreichen, hat einen simplen Grund: Latenz. Wenn mehrere Anwendungen Dateien anfragen und das suchen der Datei jedes mal 10ms dauert (HDD), dauert die gesamte IO natürlich viel länger als bei einer SSD.

Die Argumentation zum Kopieren hat mich überzeugt nicht die Dummy-Dateien zu nehmen.
 

Anhänge

  • Verteilung IO Größe.jpg
    Verteilung IO Größe.jpg
    16 KB · Aufrufe: 519
Mumpel: Wie ich bereits angedeutet habe: IOPS sagen nichts anderes aus als MB/s auch. Es ist eine simple Umrechnung, im Prinzip einfach eine andere Einheit.

IOPS sagen aus: "Wie viele Dateien werden pro Sekunde gelesen/geschrieben?"
MB/s sagen aus: "Wie viele MB werden pro Sekunde gelesen/geschrieben?"

Um das an einem Beispiel direkt zu illustrieren: wir nehmen meinen 4k Random Read Test der Intel. Die 4k sind dabei sehr wichtig, bzw. ohne diese Angabe ist der komplette Bench nutzlos.


Um zu zeigen, dass MB/s genau den gleichen Informationsgehalt wie IOPS hat, nur anders verpackt:

Nehmen wir an, ich weiss die oben gezeigten IOPS nicht, sondern weiss nur, dass ich 139.47 MB/s bei 4k schaffe. Auf die IOPS komme ich folgendermassen:

KB/s (= 1024, nicht 1000) durch die Dateigrösse teilen:
142817.28 KB/s (=139.47MB/s) / 4KB = 35704.32 IOPS - fertig ;)


Also: MB/s sagt aus: Wieviele MB pro Sekunde?
....... IOPS sagen grob aus: Wieviele Dateien pro Sekunde?

Es werden also 35704.32 4k-Dateien pro Sekunde oder 139.47MB pro Sekunde gelesen.


Hoffe habe damit etwas Licht ins Dunkel gebracht. Natürlich kann man immernoch sagen, dass "IOPS wichtiger als MB/s" sind, weil hohe IOPS oft auch nur bei kleinen Dateien erreicht werden. Nur ist das natürlich ein völliger Widerspruch, weil MB/s logischerweise auch ansteigen bei mehr IOPS...
 
Zuletzt bearbeitet:
Moros schrieb:
Die Argumentation zum Kopieren hat mich überzeugt nicht die Dummy-Dateien zu nehmen.
Kannst Du mir das bitte erklären, ich habe noch nicht verstanden warum die Dummy-Dateien schlecht sein sollen, bisher sind das doch nur Behauptungen von mumpel.

@mumpel
Ich habe sehr wohl Dateien in unterschiedlicher Größe und Menge verwendet, hier nochmal die Daten vom neuen Archiv:
25000 x 1kb, 4000 x 2kb, 3000 x 4kb, 3000 x 8kb, 3000 x 16kb, 3000 x 32kb, 2500 x 64kb, 2000 x 128kb, 2000 x 256kb, 1300x 512kb, 580 x 1024kb, 300 x 2024kb, 150 x 4096kb, 75 x 8192kb, 30 x 16384kb, 15 x 32768kb.
Das sind empirisch von mir ermittelte Zahlen die an die Realität angeleht sind.
Größere Dateien machen für den Copytest keinen Sinn weil es für die Ermittlung von sequentielle Datenraten andere Mittel gibt.

Wenn Du selbst mal die Dateien auf Deinem Rechner überprüfst, wirst Du erstaunt feststellen das es keine Gausssche Verteilung gibt, sondern eher eine Art geordnetes Chaos.

Der Cache-Algorithmus hat was mit dem Datenaustausch zwischen CPU und Arbeitsspeicher zu tun, und tangiert die Transferrate erst wenn die Bandbreite knapp wird, sprich die CPU limitiert.

82kb sind also 1,5 Blöcke, dann ist ein Block also 54,6666666666kb?
Kannst Du mir die Quelle für diesen Unsinn nennen?

Du sprichst von "klinisch sauberen Dateien", ist das ein Fachausdruck? So etwas wie Killerspiele?

Daten aus der Praxis sind per Definition besser als komplett synthetisch erzeugte Dateien.
Ausgemachter Blödsinn, nenne mir die Quelle für Deine Behauptung!

Wenn man zehn Pakete mit realen zufälligen Dateien mit zufälliger Größe nimmt, wird man zwischen diesen Paketen auch einen deutlichen Performance unterschied sehen.
So lässt es sich auch nicht verhindern das es zwischen Realen und Dummy Dateien Unterschiede gibt, dass ist aber letztendlich unwichtig solange man immer die selben Daten verwendet.

Die erzeugten Dummy Dateien zeigen deutliche Unterschiede zwischen SSD und HDD, dass ist Fakt, schwarz auf weiß.
Sicher kann man die Wichtung verändern, indem man mehr große oder mehr kleine Dateien verwendet.

Die Zwischengrößen zwischen den Abstufungen 1kb, 2kb, 4kb, 8kb, 16kb...usw...machen einen Chart vielleicht runder, das kannst Du aber genauso mit Interpolation erreichen, wenn es sein muss.
Wieso werden in synthetischen Benchmarks auch keine krummen Werte verarbeitet?

Die Systemeigenheiten sind schon eher problematisch, bei mir hat z.B. die VelociRaptor in einem Test mal 30% länger für das Kopieren gebraucht, weswegen ich den Test wiederholen musste, mir ist das gleich aufgefallen weil ich den Systemmonitor nebenbei hab laufen lassen.
 
@ balla balla:
Ich kann verstehen, dass du dich aufregst, schließlich hast du dir sicherlich Arbeit gemacht mit den ganzen Dateien und sicherlich auch alles in bester Absicht getan. Aber mich überzeugt das aus den oben genannten Gründen nicht. Und häng dich bitte nicht an Kleinigkeit auf, die ich schnell runter geschrieben habe. Dass du unterschiedliche Anzahlen an Dateien für unterschiedliche Dateigrößen genommen hast, ist löblich. Hab ich nicht gesehen.

Ich denke nur, dass wenn man ein Auto in der Praxis testen will, muss man sich rein setzen und auf der Straße fahren. Egal, ob man eine tolle Teststrecke künstlich gebaut hat, oder nicht. Verstehst du das nicht?
 
Das Schlüsselargument ist für mich die Größe. Die Dummy-Dateien sind (bis auf 1 und 2 KB) alle ein Vielfaches von 4 und lassen sich somit genau auf die Pages aufteilen. Wenn ich z.B. den Programm-Ordner kopiere, kann sind die Dateigrößen selten genau durch 4 teilbar.
Leider weiß ich nicht, ob das Ergebnis dadurch beeinflusst wird bzw. wie groß ggf. der Unterschied wäre. Ansonsten hab ich mit den Dummy-Dateien kein Problem.

Wenn mir jemand erklären kann, warum es keinen Unterschied macht, dann bin ich auch bereit meine Meinung wieder zu ändern. Wie gesagt, hier steht (fast) alles zur Diskussion.
 
Eine Idee für dich um zu es zu testen:

FC-Test funkt sehr wohl, einfach würde ich die automatische Kopierfunktion nicht benutzen.
Aber: erstelle ein Pattern vom kompletten Programmordner. Create mit FC-Test, Reboot (!!!) und kopiere 1x die von FC-Test kreierten Dateien und 1x den original Programmordner. Schauen ob's unterschiede gibt, feddisch.
 
Gestern wieder eine Firmware für den anderen Controller getestet und mal wieder feststellen müssen wie falsch manche synth. Benchmarks liegen...

Nehmen wir zb CDM...
Unter XP x86 hab ich damit die besten Ergebnisse. Real sieht es allerdings so aus, dass XP (und W7 x64) hinter Vista x64 liegt.

Der einzige Bench, der mit FC-Test konform ist wäre IOmeter.
Mit dem hab ich unter XP schlechtere Ergebnisse als unter Vista. Was real ja auch stimmt.

Was ich also sehen möchte ist...
- FC-Test (create, read, copy)
- IOmeter (Workstation, 4k-100% write-100% random und 4k-100% read-100% random) alle Patterns bitte mit 64 Threads. Evtl. noch Database und Fileserver (auch mit 64 Threads).
- Und halt noch diverse Ladezeiten von aufwändigen Programmen oder Spielen.
 
Zuletzt bearbeitet:
Von mir aus auch 16 Threads. 64 würde aber noch aufzeigen zu was die SSD im Stande ist.
 
Wäre auch eher für 16-max.20 Threads. 64 hat niemand gleichzeitig laufen. Ein Kumpel von mir (IT-Kaufmann) hat regelmäßig 17 Threads gleichzeitig laufen. Mehr brauch selbst er nicht. Viel besser ist die Frage, was für Threads laufen sollten. 16mal Word ist genauso unrealistisch, wie 64mal irgendwas.

Wenn ihr wieder die Intel testet, würde ich gern erfahren wie es bei der Intel mit dem Leistungsverlust im verhältnis zu den anderen SSDs aussieht.
Dieser Test https://www.computerbase.de/artikel...est.1041/seite-7#abschnitt_performanceverlust
Hat ja gezeigt, dass die Indilinx den Samsung bei diesem Problem überlegen sind.

Desweiteren finde ich eine SLC nur so zum Spaß, auch wenn sichs kaum einer kauft, da zu teuer (imo!), sehr interessant.

freu mich schon drauf, dass Thema ist grade einfach heiß. Gutes gelingen, euer Gorby.
 
Ich wäre für einen Test der Temperatur in idle und Auslastung der SSDs. SUch nähmlich nen erstz für miene HDD im Notebokk, damit es primär bisschen kühler wird.

Mit nem referenz vergleich zu gänigen Notebook HDDs. Es hieß ja aml das SSD nicht wirklich weniger verbrauchen mit den neuen 34nm könnte sich das doch mal ändern, und auch bei den alten wäre es mal schön zu wissen ob die nunn kühl bleiben oder wärmer als ne hdd werden
 
Bei mir ist das Notebook im Bereich der Festplatten (sind zwei drinne) signifikant kühler, seit ich eine 7200rpm Platte gegen ein SSD getauscht habe.
Im idle-Betrieb verbrauchen SSDs auch deutlich weniger als Festplatten, unter Last allerdings nicht wirklich. Da SSDs aber viel schneller sind, arbeiten sie i.d.R. weniger unter Last, d.h. produzieren am Ende des Tages weniger Hitze.
 
Ja das hab ich auch überall schon in Foren gelesen, aber ich habe NIE einen Temperatur Test in Reviews bzw Benchmarks gehn und denke das hebt die CB-Test dann noch mal auf ein anders Level gegen über naderen Tests
 
Merlin-.- schrieb:


Danke für den richtig guten Link, leider sind das wieder nur Verbrauchsdaten

Natürlich liegen Verbrauch und Temp in relation aber Ausgelesene Wert auch fehl anzeige.

Dabei koann HDTach oder HDTune doch sowas auch auslesen Speed Fan denke ich auch mal, aber kein Reviewer macht das.

Dennoch danke war shcinmal sehr informativ wenn auch Temperatur leider fehlt und ein vergleich zu Standart Notebook HDDs
 
Okay das ist dann wirklich ein problem^^

Aber im Thread von mir zum Thema Notebook aufrüsten HDD oder SSd kam auch shconmal zur Sprache das ein NAS mit SSD wärmer sein sollte asl mit HDD sonst sollen die bei Zimmer Temp liegen aber mir fhelen die beweise

Aber man könnte mit IR-Thermometer wenigstens eine groben vergleich machen.

Testsystem
SSD einbaun messen
HDD einbaun messen
beides dann mit IR damit die Messmethode gleich ist
 
SSD unter Dauerlast --> wird sehr warm
SSD unter "normaler" Last (Alltag) --> bleibt "kühl"
 
Ja, und wie schon gesagt: Der Unterschied ist deutlich spürbar. Von daher wäre er umso deutlicher messbar. Wenn Du es kühler haben willst unter der Handballenauflage, kauf Dir ne SSD ;-)

Ich kann nur sagen, dass die SSD viel kühler bleibt als meine alte Hitachi 7200rpm Platte. Auch unter normaler (Alltags-) Last.
 
Zuletzt bearbeitet:
Zurück
Oben