News Super Talent schiebt günstigere SF-2200-SSD nach

@ Eggcake:

Um deine Behauptung zu unterstützen, verlinkst auf einen eigenen Post in einem anderen Forum, wo Du das selbe behauptest? - Nunja...

Dahingestellt, aber wenn Du per Script 6 Programme in 0.1s startest, inwie fern ist das als praxisrelevant zu werten?

Ich behaupte ja auch nicht, daß meine CPU limitieren könnte (in einem ganz speziellen Anwendungsszenario). Nur Du leitest daraus ab, daß die CPU immer limitiert, und das ist so mit Sicherheit nicht richtig (sorry für das Schwachsinn, aber ich bin wie gesagt frustiert).

Du gehst dabei von der Annahme aus, daß die 100% CPU-Auslastung bedingt von Datenträgerzugriffen ist. Genau diese Annahme ist aber falsch, es finden hier dutzende von Prozessen statt, die alle die CPU belasten, aber nicht das geringste mit der SSD zu tun haben. So macht der Acrobat Reader erstmal einen auf E.T. (nach Hause (Adobe) telefonieren), Office 2010 sowieso. Weiterhin erfolgen zig Zugriffe auf Teile der Registry die bereits im RAM speicher geladen wurden und pi-pa-po.

Du folgerst nun aus deinen Ergebnissen daß die CPU die SSD limitiert. OK, aber nur deshalb weil die zur Verfügung stehende Rechenzeit auf alle Prozesse verteilt wird. Wenn ich per Fumark (keine Ahnung ob das, das richtige Programm ist, kenn mich bei Benches nicht aus) alle 4 Kerne auslaste und dann eine Dateioperation auf der HDD starte, habe ich Zeiten wie bei einem USB 1.1 Stick - und - was beweist das? Das die CPU die HDD limitiert?

Aber selbst wenn es zu 100% so wäre, daß nur die CPU-Leistung an mangelnder SSD-Performance schuld ist, wäre es dies erst recht ein Vorwurf an die SSD-Hersteller. Warum sollte sich der Kunde eine noch schnellere CPU kaufen, die sich dann noch mehr und schlimmer langweilt als bereits jetzt?

@ Wolfsrabe: Ja den 46.
 
Ich verlinke an einen Test, bei dem ich ausführlich erkläre worum es geht und wie ich es nachgewiesen habe. Du stellst Behauptungen auf. Ich verstehe nicht ganz wo dein Problem ist. Abgesehen davon hast du beim letzten Post behauptet, dass sich deine CPU mit 0% langweilt beim gleichzeitigen Öffnen von mehreren Programmen. Das ist einfach falsch. Ich mache jede Wette, dass sie für eine kurze Zeit zu 100% ausgelastet wird.

Darum geht es ja genau, was du schreibst. Der PC macht noch "pi-pa-po" nebenher, wenn Applikationen gestartet werden, Games geladen werden. Daten müssen (nach dem lesen) entpackt werden, verarbeitet werden...Eine SSD kann dies nicht beschleunigen - wie in alles in der Welt sind die SSD-Hersteller dann an den stagnierenden Zeiten Schuld? Sollen sie dein Netzwerk beschleunigen, OS-Operationen verschwinden lassen und für die CPU die Arbeit übernehmen?

Ich habe dir eine Erklärung geliefert, warum die gefühlte Performance stagniert. Ich bin nicht der einzige, der auf den naheliegenden Grund gekommen ist. Die Öffnungszeiten von Applikationen korrelierten bei meinem Test praktisch 1:1 mit dem CPU-Takt. Für einen Einfluss der SSD selber bleibt nur noch wenig Platz. Mehr kann ich auch nicht sagen.
 
Zuletzt bearbeitet:
Eggcake schrieb:
Abgesehen davon hast du beim letzten Post behauptet, dass sich deine CPU mit 0% langweilt beim gleichzeitigen Öffnen von mehreren Programmen. Das ist einfach falsch. Ich mache jede Wette, dass sie für eine kurze Zeit zu 100% ausgelastet wird.

Bitte genau lesen "gestartet, 10s nichts getan - ", wenn ich PS CS5 starte hab ich z.B. ganz kurz 10%, paar Sekunden später wieder 0%. (Kommt daher, daß Werte wie 0,47% halt zu 0% gerundet werden - und dauerhaft im Idle angezeigt. Übrigens auch der Prozess Explorer zeigt im Idle ähnliche Werte.)


Wenn man deinen Ausführungen glaubt, wäre eine 320er oder 510er ja doch wesentliche Verbesserungen zur G2. Wie kommt es dann, daß beide in Teilbereichen (AS SSD Benchmark) schlechter abschneiden als die G2?

Die Effekte die Du im HardwareLuxx-Forum beschreibst, müssten der Logik nach für alle Platten gelten, ja selbst für HDDs. Inwiefern sollten sie ein Maßstab für einen Vergleich zwischen SSDs sein?

In gewissem Sinn kann ich deine Erfahrungen aber auch bestätigen. Nach dem ich mein System aufgerüstet hatte, ist mir als erstes aufgefallen, daß nun Datenträgerzugriffe wie Kopieroperationen merklich schneller wurden. Das Erstaunliche dabei: selbst mein NDAS-Laufwerk, das übers Netzwerk angebunden ist, schien mir schneller zu sein (möchte ich aber jetzt nicht beschwören). Ob das an der CPU (E8400->2600K) lag, am besseren Controller (SATA-II von Q35 -> SATA-III von P67) oder am Speicher liegt (4GB DDR2-800 -> 16GB DDR3-1333), keine Ahnung.


PS: Übrigens ich habe im Hardware-Lux Forum etwas weitergelesen. Auch wenn es wirklich so aussieht, ich habe meine Argumente im vorigen Post nicht abgeschrieben, ehrlich.:rolleyes:
 
BlackWidowmaker schrieb:
[
@ Wolfsrabe: Ja den 46.

13 mehr als ich. Alles Gute! :)


Es gab noch eine kleine Steigerung zwischen SSDs der ersten (50nm) und SSDs der zweiten Generation (34nm). Zumindest könnte man sage, daß die zweite Generation Kinderkrankheiten ausgemerzt hat (Strukturverkleinerung mal abgesehen).

Aber alle nachfolgenden Modelle überzeugten mich auch nicht mehr. Außer einem utopischen, praxisfernen "SATA-6GB/s-maxed-out-mit-Null-Byte-Daten"- und "Max-IOPS"-Unfug kam da nichts praxisrelevantes mehr.

Ich neige aber dazu, Eggcake zuzustimmen, daß andere Systemkompnenten mit eine Rolle spielen.
 
@BlackWidowmaker

Eggcake erzählt kein Mist. Lass dir lieber was erklären ;) Ich habe mich auch schon mit der Marterie beschäftigt und pflichte ihm bei. Somit eigentlich "Nough said" ;P

10% auf eine Sekunden gesehen heißt nicht, dass die CPU die ersten 100 Millisekunden nicht voll ausgelastet wird. Der Taskman aktualisiert seine Anzeige alles 1000 ms, und gibt daher nur eine durchschnittliche Belastung innerhalb dieses Zeitraums an. Wenn die ersten 100 ms du CPU voll ausgelastet (100% Auslastung in diesem Moment) wird, und die restlichen 900 ms keine Last anliegt, so kommt der Taskmanager auf seine 10%, weil 90% der Zeit nichts passiert und nur ein Zehntel der der letzten Zeitmessung Last anlag.
 
Ich hab ein paar einfache Tests gemacht:

1. ISO-Datei (ca. 3GB) von D: (HDD) auf C: (SSD) kopiert -> max. 5% CPU-Auslastung

2. Selbe Datei von C: (SSD) auf E: (SSD) kopiert -> max. 2% CPU-Auslastung (teilweise sogar <1%)

3. Ordner von (1,4GB, 15.000 Dateien) E: (SSD) auf C: (SSD) kopiert -> max. 12% Auslastung.

4. obige ISOs gelöscht -> 15% CPU-Auslastung (merkwürdig :rolleyes:)

Wo ist da bitte ein CPU-Limit?

Wäre interessant, wenn jemand mit SB + 2600K + Vertex 3 o.ä. (besser PCIe-SSD) ein paar ähnliche Tests machen würde, nur um zu schauen wie die CPU-Auslastung bei ihm ist. Wäre nett, vielleicht sogar aufschlußreich.


Wolfsrabe schrieb:
13 mehr als ich. Alles Gute! :)

Danke
 
Zuletzt bearbeitet:
Du hast einfache Dateioperationen ausgeführt, welche keine hohe Prozessorlast hervorrufen. Hier kannst du die Fortschritte der neuen SSDs spüren.

Bei Programmstarts, dem Boot, Starten von Spielen rennst du hingegen viel leichter bzw. fast immer in ein CPU-Limit.
 
Zuletzt bearbeitet:
uNrEL2K schrieb:
Du hast einfache Dateioperationen ausgeführt, welche keine hohe Prozessorlast hervorrufen. Hier kannst du die Fortschritte der neuen SSD spüren.

Bei Programmstarts, dem Boot, Starten von Spielen rennst du hingegen viel leichter bzw. fast immer in ein CPU-Limit.

kann ich absolut bestätigen, ich habe viele programme im autostart die ich benötige und mein quad ist beim systemstart auch 5-10 sekunden auf 100% mit meiner m4.
 
@BlackWidowMaker

Okay, du scheinst mich wohl falsch verstanden zu haben. Bei simplen Dateioperationen wird die SSD selbstverständlich nicht durch die CPU limitiert. Dort übertragen sich die sequenziellen Transferraten 1:1. Hier wüsste ich auch nicht, wo es etwas an der Entwicklung auszusetzen gibt: die Werte gehen von Generation zu Generation massiv nach oben.
Ich spreche davon, dass bei Anwendungsstarts und ähnlichen Aktionen die CPU die SSD ausbremst. Du sprichst ja dauernd von der "gefühlten" Leistung. 4GB ISO kopieren dürfte da kaum dazu zählen. Eine CPU beschränkt die SSD nicht direkt. Selbstverständlich nicht, sonst würde sich das auch in den Benchmarks abzeichnen. Aber die CPU kommt bei realer Nutzung, wo sie auch Daten verarbeiten muss (was beim Kopieren eigentlich kaum der Fall ist) eben bei der Nutzung von SSDs an ihre Grenzen. Dort, wo man keine Unterschiede mehr "spürt", kann man meist entdecken, dass die CPU zu 100% ausgelastet wird. Das heisst schlussendlich, dass die SSD auf die CPU warten muss und nicht umgekehrt. Deshalb öffnen sich durch eine schnellere SSD die Anwendungen auch nicht mehr schneller.

Und das ist bei HDDs eben nicht der Fall. Dort wird die CPU extrem selten zu 100% ausgelastet. Die CPU wartet also auf Daten von der HDD. Die HDD ist somit bei Anwendungsstarts der Flaschenhals.
Und bevor du das mit einfachen Programmen nachmessen gehen willst: denk daran, dass bei einzelnen Programmstarts oft nur ein Kern arbeitet. Die Auslastung im Taskmanager ist dann natürlich entsprechend tief.


Und zu den synthetischen Werten:
Ja, die SSDs stagnieren zu einem Grossteil bei 4k Random. Das hat damit zu tun, dass beim Sprung von 34nm auf 25nm Flash die Pagesize von 4kB auf 8kB erhöht wurde. Real werden also 8kB gelesen und geschrieben, logisch handelt es sich aber nur um 4kB. Dies ist eigentlich unabhängig von der SSD (sie benutzen schlussendlich denselben Flash bzw. haben dieselbe Auswahl). Allerdings ist dies auch eine etwas beschränkte Sichtweise, da 3 Werte unmöglich die Performance einer SSD beschreiben können. Aufgrund von einzelnen SSDs von einer Stagnation zu sprechen ist also auch falsch. SandForce hat ja zum Beispiel sehr grosse Sprünge gemacht.
 
Zuletzt bearbeitet:
der wahnsinn wie schnell sata3 ans limits gekommen ist :lol::evillol:

und ich meine meinung geändert habe was ssd preisleistung angeht, dank sata3 performance !

so habe ich nach lange, lange warten bis die ssd endlich sehr preiswert geworden sind, natürlich dank sata3 grenzleistung,

mir ne ocz vertex 3 max iops zugelegt.

die ssd sollen ab 2012 deutlich günstiger werden bis zu 50% :schluck:

dann kann das raid0 mit mehrere ssd beginnen :D
 
Zuletzt bearbeitet:
gecan schrieb:
der wahnsinn wie schnell sata3 ans limits gekommen ist :lol::evillol:
Täusche Dich nicht, die günstigen SF 22xx SSDs kommen mit realen Daten nicht einmal annährend ans SATA3 Limit. Die OCZ Agility3 hat auch asynchrone NANDs und erreicht selbst mit 240GB bei nicht komprimierbaren Daten (ASS Benchmark) nicht einmal die SATA2 Grenze:

as-ssd-bench.png


Um die SATA3 Speed zu benötigen müssen die Daten schon recht gut komprimierbar sein:

as-compr-bench.png


Da schafft eine Crucial m4 256GB bei ASS mehr Punkte und bessere seq. Transferraten und kostet auch noch weniger.
 
ja gut bei 4k und so ist ja klar, aber dafür gibts ja raid0 betrieb die den sata3 sicher ans grenze bringen mit 4 oder 6 ssd 120gb vertex3 max iops natürlich ;)
 
gecan schrieb:
ja gut bei 4k und so ist ja klar, aber dafür gibts ja raid0 betrieb die den sata3 sicher ans grenze bringen mit 4 oder 6 ssd 120gb vertex3 max iops natürlich ;)
Ein RAID0 bringt bei den 4k (QD1) Werte garnichts, weil die Daten übrlicherweise erst ab 64 oder 128k überhaupt gestrippt, also auf mehr als einer SSD abgelegt werden. Die einzelnen 4k Zugriffen gehen also immer auf eine einzelne SSD im RAID0. 2k Zugriffe wäre auch noch viel langsamer, so daß Unsinn wäre 4k auf zwei SSDs zu vertelien.

Außerdem wirst Du selbst an der AMD SB850 und wenig mehr als 1.1GB/s Durchsatz erreichen und bei Intels Chipsätze keine 800MB/s. Man müßte also schon einen wirklich guten und teuren RAID Controller verwenden um noch mehr Durchsatz zu erreichen und spätestens dann stellt sich doch massiv die Sinnfrage.

Aber Deine MixIOPS kommt dem SATA3 Limit schon sehr nahe, nur bringt Dir das in der Praxis auch keinen so großen Vorteil mehr. Die meißten Systeme haben garnicht genug IO Anforderungen um die Unterschiede zwischen aktuellen, leistungsstarken SSDs überhaupt ausreizen zu können.
 
Wie gesagt: Es wird viel Werbung mit "MAX-IOPS" und dem Ausreizen von SATA-6GB/s (sequenzielle Transferraten) gemacht. Viel hat man davon im alltäglichen Benutzen nicht. Um von den Max-IOPS etwas zu merken, bräuchte man schon einen Datenbank-Server. Und um SATA-6GB/s auszureizen, müsste man seinen Rechner zuhause eigentlich nur dazu verwenden, um den ganzen Tag große ISO-Dateien von A nach B zu kopieren. Wie langweilig. Nicht mal bei Film-Dateien funktioniert das, weil die ja komprimiert sind...
 
logisch, dafür soll die leistung ja auch bereit sein für allg wenn man sie braucht wie seine werkzeuge im keller ! ;)
 
Die SSDs müssen garnicht mehr schneller werden, der aktuelle Flaschenhals liegt meist an der Software die heutige SSDs einfach nicht mit QD von 32/64 ansprechen können.
Wenn man extrem viele Programme gleichzeitig startet könnten sogar aktuelle CPUs zum Flaschenhals werden. Bei SSDs ist mittels Parallelisierung noch einiges an Performance zu holen.
Doch meist nicht nötig. Keiner merkt den Performance unterschied einer Indilinx zu einer SF-2281 SSD.

regards

BlackWidowmaker schrieb:
Ich hab ein paar einfache Tests gemacht:

1. ISO-Datei (ca. 3GB) von D: (HDD) auf C: (SSD) kopiert -> max. 5% CPU-Auslastung

2. Selbe Datei von C: (SSD) auf E: (SSD) kopiert -> max. 2% CPU-Auslastung (teilweise sogar <1%)

3. Ordner von (1,4GB, 15.000 Dateien) E: (SSD) auf C: (SSD) kopiert -> max. 12% Auslastung.

4. obige ISOs gelöscht -> 15% CPU-Auslastung (merkwürdig :rolleyes:)

Wo ist da bitte ein CPU-Limit?

Wäre interessant, wenn jemand mit SB + 2600K + Vertex 3 o.ä. (besser PCIe-SSD) ein paar ähnliche Tests machen würde, nur um zu schauen wie die CPU-Auslastung bei ihm ist. Wäre nett, vielleicht sogar aufschlußreich.

Danke

Bei einem simplen durchschleusen von Daten wird natürlich kein 2500k an seine Grenzen geführt.
Da müssen schon parallele Programmstarts, Virenscans o.ä. dazu herhalten.
Da haut die SSD der CPU die Daten so schnell um die Ohren, dass es schon anders aussieht. :)
 
Zuletzt bearbeitet:
Holt,

aber von agillity3 zu vertex 3 mi sind schon welten ;)



und wie man sieht beim schreiben haben die ssd wehen em noch schwächen :D

und ja bei 4k blöcke muss noch was getan werden kann nicht das ende sein ;)
 
gecan schrieb:
Holt,

aber von agillity3 zu vertex 3 mi sind schon welten ;)
Ja, das ist klar, die kostet aber mehr und der Thread heißt: "Super Talent schiebt günstigere SF-2200-SSD nach", die düfte wohl ehr auf die Agility3 zielen.

Die 240GB Vertex3 (und vergleichbare SSDs anderer Hersteller mit entsprechendem NAND) sind die schnellsten SATA SSDs am Markt, auch wenn in der Praxis kein Vorteil zu anderen schnellen SSDs spürbar ist. Wer die schnellste SATA SSD haben will, der kommt da nicht daran vorbei, muß mit den Problemen und Bugs leben und obendrein noch hoffen, dass der Hersteller auch seine SSD mit den schnellen NANDs wie beim Exemplar im Review bestückt hat.
gecan schrieb:
und ja bei 4k blöcke muss noch was getan werden kann nicht das ende sein ;)
Nein, da ist Ende Gelände, alleine schon weil die Pagessizes normaler NANDs heute immer öfter 8k statt 4k wie früher ist. Würde man die mit 8k Sektoren formatieren und dann 8k Random testen, so kämen da ggf. besser Ergebnisse als bei den Vorgängern heraus, aber der Standart ist halt 4k.

Hier meine m4 256GB an AMD SB 850, der Score ist zwar nur wenig besser als bei der Agility3, aber die seq. Leserate ist doppelt so hoch:
as-ssd-bench-m4-ct256-m4ssd2-12-07-2011-01-10-18_prime-png.240869


ASS testet die IOPS mit 64 ausstehenden Operationen, was sowohl über dem spezifizierten Limit von 32 als auch weit jenseits der realen üblichen Werte (i.d.R einstellig) liegt und dann schlägt die m4 auch eine Vertex3:
36346.png
 
Zuletzt bearbeitet:
Zurück
Oben