Test Test: Samsung Serie 840 Pro 256 GB

BlackWidowmaker schrieb:
Tatsächlich ist SATA-III völlig überflüssig. Für HDDs bringt sie keinen nenneswerten Vorteil
Noch, aber die werden auch immer schneller und erreichen schon gut 220MB/s auf den schnellen, äußeren Zylindern. Sie kommen also dem Limit von SATA 3Gb/s langsam näher.
BlackWidowmaker schrieb:
für performante SSDs war sie von Anfang an ein Flaschenhals.
Stimmt auch nicht. Die Crucial C300 war die erse SSD mit SATA 6Gb/s Interface und die konnte nur etwa 360MB/s seq. lesen. Da war SATA 6Gb/s also noch kein Flaschenhals!
BlackWidowmaker schrieb:
Der einzige sinvolle Weg ist PCIe. Denn selbst SATA-IV wird für SSDs veraltet sein, lange bevor es auf den Markt kommt.
SATA IV wird es nicht geben. Mit SATA Express hast Du Dich offenbar auch noch nicht befasst, denn das ist PCIe basiert. Trotzdem wird auch das nicht so viel bringen, wenn nicht auch die kurzen Zugriffe beschleunigt werden, was natürlich ein Stück weit passiert wenn die Latenzen abnehmen. Eine SSD die 4k Random mit 100 MB/s lesen kann wäre mit lieber als eine, die statt nur 500MB/s 1.5GB/s seq. liest, weil man davon im Alltag viel mehr hätte.

Der Bugatti Veyron nutzt Dir wenig, wenn Du nur in Wohngebieten und Tempo 30 Zonen damit unterwegs sein kannst und sonst maximal 100 fahren darfst, getunnt oder nicht.

BlackWidowmaker schrieb:
Streiche Nutzer, setze SSDs, denn TRIM ist für jede SSD von unterschiedlicher Bedeutung. Bei einer Agility hast Du recht, bei einer Plextor M5 Pro nicht unbedingt. Diese und andere hochwertige SSDs sind gerade für diesen Einsatzzweck konzipiert.
Das ist doch nun totaler Unsinn. Bei einer SSD mit Sandforce ist TRIM sogar so nutzlos, dass der Bug in den ersten 5er Versionen der FW nicht aufgefallen ist. Die können ja mit und ohne TRIM nicht mehr auf die gleiche Schreibgeschwindigkeit wie im Neuzustand kommen und auch nicht die ganze Kapazität so schnell beschreiben, wenn die SSD vorher getrimmt wurde.

Weder die M5P noch die 840Pro sind so konzipiert, dass sie ohne TRIM gut klarkommen können. Dann müssten da viel mehr Overprovisioning betrieben werden.
BlackWidowmaker schrieb:
Daher wäre die Frage ob und wie gut eine SSD tatsächlich für RAID geignet ist, keine die man kathegorisch von Anfang an verneinen könnte.
Welche SSD für RAID ohne TRIM besser geeignet sind und aus welchem Benchmark man das woran erkennt, habe ich schon oft geschrieben. Aber selbst bei denen kommst Du ohne TRIM nicht darum herum ein entsprechendes Overprovisioning zu betreiben, wenn Du größere Datenvolumen am Stück mit voller Geschwindigkeit schreiben können willst.

BlackWidowmaker schrieb:
Will man 1TB SSD dann kann man 2x 840 Pro 512GB kaufen für 970.-€ oder 4x 830 256GB für ca. 670.-€ bleiben folglich 300€ für einen 8-Kanal SAS 6GB/s Controller.
Da Du dann kein TRIM hast, nimm lieber 3 bzw. 6 SSDs und nutze trotzdem nur 1TB.
BlackWidowmaker schrieb:
Du kannst jetzt 10x mal sagen, das dies Unsinn ist, Papier ist ja geduldig.
Dann teste es doch selbst.
BlackWidowmaker schrieb:
Einem Test würde ich aber mehr Glauben schenken.
Was Du glaubst, ist mir echt sowas von egal. Ich bin doch kein Missionar, den den Leute einen Glauben aufzuzwingen sucht.
BlackWidowmaker schrieb:
Wäre z.B. im Moment für jeden interessant der eine SSD >= 512GB haben will und ein Z77 MB hat.
Eben und das sind nicht viele.
BlackWidowmaker schrieb:
Falsch, ich sehe das genau andersherum. Gerade durch den Cache oder einer mit 32GB RAM sich anbietenden RAM-Disk kann man Lesetests machen die besser skalieren, wenn z.B. von der SSD in die RAM-Disk kopiert wird. Ideal wären hierbei ca 270GB RAM um eine 256GB SSD zu testen. Dann könnte man einen zugegebener Maßen sehr theoretischen Test über die Lesegeschwindigkeit beim kompletten Auslesen einer vollgeschriebenen SSD in den RAM-Speicher machen.
So ein Unsinn. Bei den theoretischen Tests reicht es soch, einfach die Daten zu schrieben oder zu lesen, so wie AS-SSD und andere es mit schon wenig RAM machen. Das RAM würde nur die praxisnähreren Tests weiter verfälschen, weil Windows dann zu viele Daten cachen würde und man noch weniger der Performance der eigentlichen SSD misst.

Welchen Sinn soll es also haben den Inhalt einer SSD ins RAM kopieren zu können?
BlackWidowmaker schrieb:
Doch natürlich, gerade deshalb rege ich mich ja auf wenn man dann solchen Nonsens testet wie "Gimp-Installationszeit" wenn jeder Blinde mit einem Krückstock sieht, daß die Unterschiede zwischen den SSDs nur ein Bruchteil der Meßtoleranz betragen. Noch viel unsinniger auch noch überhaupt einen Schluß/Fazit daraus ziehen zu wollen.
Da stimmen wie mal überein und das habe ich auch schon mal bei einem früheren Test geschrieben. Wenn die Ergebnisse unterhalb der Messtoleranz liegen, dann herrscht ein technischer Gleichstand und eine Bewertung der Unterschiede ist schlicht unseriös.
BlackWidowmaker schrieb:
Daher meine Forderung auch nach Anwendungen, die nicht nur ein bißchen, sondern stark skalieren. Da wäre z.B. eine automatiserte Windows-Installation, Ladezeiten von geigneten Spielen u.ä.
Wäre ganz nett, aber so viele Anwendungen oder Spiele (die interessieren mich z.B. überhaupt nicht) die weit verbreitet sind und nicht nur sehr intensiv die Platten nutzen sondern auch noch gut auf SSDs optimiert sind (was nutzt es, wenn die z.B. nur mit einem Thread schrieben?) gibt es ja nun eben auch nicht.
 
Holt schrieb:
Das ist doch nun totaler Unsinn. Bei einer SSD mit Sandforce ist TRIM sogar so nutzlos,...

Nunja wir wissen alle, daß Du unter einer SF-Phobie im chronischen Endstadium leidest, also ganz ruhig, tut Dir keiner was, keiner hat was von SF gesagt, nein keiner. Komm wieder runter.:D Die Frage war hier 830 im Raid oder 840 Pro.

OK Spaß beiseite. Trim wird bei RAID-0 und Z77 von Intel mittlerweile zwar unterstützt aber bei propietären Controllern natürlich nicht. Die Frage bleibt jedoch bestehen welche Faktoren nun performancetechnisch relevanter sind. Klar ohne Trim bricht die Performance ein, doch ist es bisher nicht gezeigt wie stark. Und ob es z.B. einen Sweep-Point gibt also eine Anzahl von SSDs die nötig sind um den Wegfall von Trimm überzukonpensieren.

Klar ist sowas ein aufwändiger Test und für die meisten Leser völlig ohne Praxisrelevanz. Doch wenn wir damit anfangen, wie praxisrelevant ist ein Tripple-SLI aus GTX 680ern + Tripple-Crossfire-7970er Test mit passendem Hexacore? Wenn man so argumentiert, warum liest man ständig was hier über eine GTX 680 oder HD 7970 - die können/wollen sich auch die meisten Leser hier bestimmt nicht leisten. Kosten teilweise mehr als eine 840 Pro 512GB und die kann man (bis auf unbedeutende Ausnahmen) nur zum Zocken nutzen. Eine SSD pusht das ganze System und alle Anwendungen. Für so einen noch unsinnigeren Test steht plötzlich ein Hexacore zur Verfügung, aber eine 840er Pro wird mit einem i3 getestet? Das ist übelster Hardware-Rassismus. :lol:

Holt schrieb:
Weder die M5P noch die 840Pro sind so konzipiert, dass sie ohne TRIM gut klarkommen können. Dann müssten da viel mehr Overprovisioning betrieben werden.

Könnte es sein, daß ein Performance-Fetischist dann unter anderem auch deshalb 1TB SSD-Platz haben will um Overprovisioning ohne Ende betreiben möchte? Um z.B. auch das allerletzte Quäntchen an Performance aus so einer Konfiguration rauszukitzeln? Ich möchte wirklich nicht behaupten, daß die RAID-Option die sinnvollere ist, doch es ist auf jeden Fall eine Option die gar nicht so abwegig ist wie Du es manchmal abtust. Und wenn ich alles selber testen soll, warum sollte ich dann CB lesen?

Welchen Sinn soll es also haben den Inhalt einer SSD ins RAM kopieren zu können?
Wie sollen denn die Daten zur CPU gelangen? Per Beam-me-up-Scoty? Was von der CPU verarbeitet werden soll, muß erst in den RAM gelesen werden. Wenn nicht genug RAM da ist muß ausgelagert werden. Sobald aber ausgelagert wird gibt es einen großen Performanceeinbruch. Daher RAM bis zur Oberkante und weg mit dem Swapfile. Aber bitte jetzt nicht mit der leidigen Auslagerungsdiskussion a la HisN kommen, die wurde zu Genüge durchgekaut - die Fronten bleiben da verhärtet.

Sorry aber auch hierbei bin ich beratungsresistent wenn Du so willst, oder Du bist es aus meiner Sicht. Mehr Speicher bedeutet aus meiner Sicht der Dinge, daß eine SSD überhaupt erst ohne eine Limitierung durch zuwenig Speicher ihr volles Potential entfalten kann. Einen Test mit ausgeschaltetem Datenträgercache halte ich für genauso sinnlos weil praxisfremd wie eine nicht komprimierte Rar-Datei. Und eigentlich ist es ja deine Argumentaionsschiene für besser gesagt gegen den SF-Controller, daß Daten die sich zu 100% stark komprimierbar sind, in der Praxis keine Relevanz haben.

Wäre ganz nett, aber so viele Anwendungen oder Spiele (die interessieren mich z.B. überhaupt nicht) die weit verbreitet sind und nicht nur sehr intensiv die Platten nutzen sondern auch noch gut auf SSDs optimiert sind (was nutzt es, wenn die z.B. nur mit einem Thread schrieben?) gibt es ja nun eben auch nicht.

Ich sag auch nicht daß es viele richtige Anwendungen/Spiele gibt für Realtests - aber es gibt sie und die ansonst üblichen Testkanditaten die hier getetestet werden sind es definitiv nicht sondern im Gegensatz völlig ungeignet für einen wirklich praxisrelevanten Vergleich.
 
Also bei deinen Beiträgen bin ich hin und her gerissen. Teilweise hast du einige Punkte richtig erkannt, bei denen ich auch mit dir übereinstimme, bei anderen verfällst du dann leider wieder in extreme Ansichten die ich (und wohl auch 99% der Leser) nicht teile.

BlackWidowmaker schrieb:
Das ist übelster Hardware-Rassismus. :lol:

Wohl eher Hardware-Realismus. Zum einen werden mehr User einen solchen utopischen und praxisfernen Extrem-GPU-Test anclicken als einen analogen utopischen und praxifernen Test für SSDs, da mehr User von so einem Setup mit vielen GPUs und massiver Spieleleistung träumen.

Außerdem dürfte die Zahl der Gamer die Zahl an Leuten, die von einem so extrem großem und performanten SSD Setup tatsächlich profitieren würden, deutlich übersteigen.

Daher hat CB hier meiner Meinung nach "strategisch" alles richtig gemacht.

Klar hätte ich auch gerne mehr Platz auf meiner SSD und eine höhere Leistung, allerdings wäre der von Holt angesprochene 4k read Bereich mit 1-15 Threads hier deutich wichtiger als 1,5 Gbps sequentielle Leserate... und ich muss diese Größe und Leistung auch nicht SOFORT haben, ich kann darauf gerne noch 1-2 Jahre warten - dann wird es auch preislich halbwegs erschwinglich werden ;)

Definitiv übereinstimmen tue ich aber mit deinem Wunsch nach einem besseren Testsystem mit einem übertakteten 3570k oder 3770k. Dies ist für eine Online Magazin in der Größe von CB sicherlich absolut erschwinglich und würde die marginalen Unterschiede zwischen den SSDs etwas weniger marginal erscheinen lassen - dafür sind Tests ja schließlich da. Ansonsten könnte man gleich nur noch den Controller, Leistungsabfall der Schreibeleistung usw. untersuchen und sämtliche normalen Leistungsmessungen weglassen, ganz nach dem Motto "sind eh alle gleich schnell".

Das ist leider nicht optimal und auch nicht die Seriosität, die CB anstreben sollte. Englische Websites wie Anandtech sind da leider den deutschen Magazinen um einiges voraus, da hat Black Widowmaker durchaus recht.
 
Zuletzt bearbeitet:
@BlackWidowmaker und Holt,

ein wirklich interessanter Disput, ich kann und will auch gar nicht mitreden (dazu fehlt mir schlicht und ergreifend das Hintergrundwissen), welches ihr beiden ganz offensichtlich und definitiv habt. Die eine Seite überzeugt, die andere aber auch! Ihr seid beide unangefochtene Verbalakrobaten :D Eure Argumentation erstaunt doch immer wieder aufs Neue, klasse! (Das ist Positiv gemeint) Diese Akrobatik beherrschen hier im Forum vielleicht 20 User :p (soweit ich das persönlich bis jetzt erblicken konnte).

Klar ist sowas ein aufwändiger Test und für die meisten Leser völlig ohne Praxisrelevanz. Doch wenn wir damit anfangen, wie praxisrelevant ist ein Tripple-SLI aus GTX 680ern + Tripple-Crossfire-7970er Test mit passendem Hexacore? Wenn man so argumentiert, warum liest man ständig was hier über eine GTX 680 oder HD 7970 - die können/wollen sich auch die meisten Leser hier bestimmt nicht leisten. Kosten teilweise mehr als eine 840 Pro 512GB und die kann man (bis auf unbedeutende Ausnahmen) nur zum Zocken nutzen. Eine SSD pusht das ganze System und alle Anwendungen. Für so einen noch unsinnigeren Test steht plötzlich ein Hexacore zur Verfügung, aber eine 840er Pro wird mit einem i3 getestet?

Hier kann ich aber BlackWidowmaker absolut zustimmen!

@ralle_h,

ich denke, dass es genau in die andere Richtung geht.

Du hast vielleicht recht, dass ein martialischer Test mit Tripple-SLI aus GTX 680ern + Tripple-Crossfire-7970er mehr Klicks erzeugt aber dennoch bin ich davon überzeugt, dass die SSD wesentlich mehr Publikum (auch zukünftig) anspricht. Schon alleine deshalb, weil halt JEDER (schnellen) Speicher benötigt und diesen auch will. Klar so eine scheckkartengroße SSD ist langweiliger aber dennoch braucht sie in Zukunft jeder!
 
Zuletzt bearbeitet:
Also ich bin persönlich froh, dass nicht mit irgendwelchen absonderlichen Controllern, 500 Euro CPUs und Unmengen an Ram getestet wird.
Mag sein, dass ein "Wir testen Hardware für 5000 Euro, guckt mal was es tolles gibt was ihr euch nicht leisten könnt" Artikel auch oft angeklickt wird, aber von einer guten Seite erwarte ich auch Tests, die mir faktisch was nutzen.

Über irgendwelche SLI-Tests kann man streiten, hier bin ich auch eher der Auffassung, dass es sinnvoller wäre die Testpalette deutlich nach unten zu erweitern und/oder viel mehr auf die Geräuschentwicklung zu achten.
Ich denke da an so was wie "5x HD7770 Varianten im Kühlervergleich".
 
Blutschlumpf schrieb:
Mag sein, dass ein "Wir testen Hardware für 5000 Euro, guckt mal was es tolles gibt was ihr euch nicht leisten könnt" Artikel auch oft angeklickt wird, aber von einer guten Seite erwarte ich auch Tests, die mir faktisch was nutzen.

Kann Dir diesbezüglich eigentlich nur zustimmen. Ist ein Grund warum ich persönlich Tows Hardware verlassen und mich an CB gewöhnt habe. Doch wenn Du genau mein Beitrag liest geht es mir auch nicht darum. Es geht mir darum mit Mitteln zu testen die gerade nicht jedem zur Verfügung stehen um überhaupt die äußeren Einflüsse zu bestimmen, bzw mit welchen Systemänderungen die SSD-Performance skaliert oder nicht.

Ich meine bezüglich Grakas wurden auch viele Tests gemacht bezüglich SLI und Crossfire und ob sich so eine Konfiguration rentiert oder nicht, gerade bei kleineren Grakas die dann im SLI obwohl billiger leistungsfähiger als das jeweilige Spitzenmodell waren. Was ist ein RAID-0 anders als ein SSD-SLI? Außerdem 2x 830er 256GB gabs teilweise unter 300€, ein gutes Z77 MB gibts ab 120€, das ist weniger als das was so manche GTX 680 kostet, die hier bereits getestet wurde.

Wenn ich bedenke, früher zahlte für ein guten Rechner mindestens 3000 DM und so etwas wie einen Adaptec-SCSI Kontroller der damals ca. 400-500 DM kostete hatte auch jeder Poweruser. War am Anfang die einzige Möglichkeit CDs zu brennen z.B. Heutzutage kann man sich für 1000€ einen wirklich leistungsfähigen PC mit teilweise Spitzenausstattung kaufen. Die teuerste HDD im Preisvergleich kostet gerade mal 360€, früher hat man für eine Spitzen SCSI Platte mit 4GB bis zu 4000 DM bezahlt. Ein gut ausgestatteter PC ist wirklich erschwinglich geworden heutzutage für fast jedermann. Ich denke CB und vor allem hier das Forum ist etwas für Leute für die ein PC ein Steckenpferd ist, ein reiner Office User landet hier höchstens wenn er ein Problem hat hier und wart nach der Lösung nie mehr gesehen. Daher muß man auch den Low-End Bereich auch nicht unbedingt ausschöpfen sondern eher den Midrange Bereich also die gleiche Frage bei den GTX 660 Karten z.B., denn diese werden wohl am meisten von typischen CB Usern die häufiger hier vertreten sind genutzt.
 
Jungs, holt das Poppkorn raus, es geht weiter :D Aber Vorsicht, hier kann man auch was lernen! :freak:

Eigentlich bin ich ja selbst schuld, schließlich habe ich ja selbst mal so eine Konfiguration ins Spiel gebracht.


BlackWidowmaker schrieb:
Nunja wir wissen alle, daß Du unter einer SF-Phobie im chronischen Endstadium leidest, also ganz ruhig, tut Dir keiner was, keiner hat was von SF gesagt, nein keiner.
Dabei habe ich sogar selbst eine SF SSD. Nachdem meine Vertex2 120GB verreckt ist, hat OCZ die gegen eine Agility3 120 (AGT3-25SAT3-120G) getauscht. Nur habe ich die noch nicht aus ihrer Blisterpackung befreit, weil ich im Moment mit meinen anderen 12 SSD noch genug zu tun habe. Aber als Test- und Studienobjekt wird sie bei Gelegenheit zum Einsatz kommen. Hoffentlich bekomme ich keinen Ausschlag, wenn ich sie anfasse :evillol:

BlackWidowmaker schrieb:
Die Frage war hier 830 im Raid oder 840 Pro.
Gut, beschränken wir uns auf die beiden und das Thema RAID, weil darum geht es Dir ja offenbar.

BlackWidowmaker schrieb:
OK Spaß beiseite. Trim wird bei RAID-0 und Z77 von Intel mittlerweile zwar unterstützt aber bei propietären Controllern natürlich nicht. Die Frage bleibt jedoch bestehen welche Faktoren nun performancetechnisch relevanter sind.
Das alle anderen RAID Controller da noch hinterherhängen und selbst Intel so lange gebraucht hat, ist mir echt unverständlich. Letztlich muss doch beim TRIM Befehl nichts großartig anderes gemacht werden, also bei jedem Lesebefehl auch: Der RAID Controller muss die globalen LBAs des eingehenden Befehls in lokale LBAs der einzelnen Platten umrechnen und dann entsprechende Befehle an die einzelnen Platte schicken.

Wieso das bisher nicht in den großen RAID Controllern implementiert ist, dürfte also andere Gründe haben. Einmal dürfte es daran liegen, dass es durchweg SAS Controller sind und TRIM ein SATA Befehl ist, aber andererseits muss SAS SATA tunneln (STP). Schwerwiegender ist wohl, dass diese Controller i.d.R. in einem Umfeld eingesetzt werden, so TRIM sowieso keine große Bedeutung hat. TRIM wird ja nur aktiv, wenn Dateien gelöscht werden, nicht wenn man diese direkt überschreibt. Datenbanken und virtuelle Maschinen aber löschen ihre Files nie, sondern schrieben immer nur wieder darin rum. Damit kommt TRIM sowieso nicht zum Zuge und genau solche Anwendungen dürfte für die RAID am häufigsten sein.
BlackWidowmaker schrieb:
Klar ohne Trim bricht die Performance ein, doch ist es bisher nicht gezeigt wie stark.
Da empfehle ich doch dringend mal Anandtechs: Exploring the Relationship Between Spare Area and Performance Consistency in Modern SSDs, denn darin wird genau darauf eingegangen. Zwar misst er dort die IOPS und nicht seq. Transferraten, das Ergebniss ist aber ähnlich:
I took a freshly secure erased SSD and filled it with sequential data. This ensures that all user accessible LBAs have data associated with them. Next I kicked off a 4KB random write workload across all LBAs at a queue depth of 32 using incompressible data. I ran the test for just over half an hour, no where near what we run our steady state tests for but enough to give me a good look at drive behavior once all spare area filled up.
Die ganze Nutzkapazität wird befüllt und dann werden da mit QD32 Randomwrites durchgeführt, so dass man gut erkennen kann, wann die Spare Area (also der Freie Platz den jede SSD hat weil immer mindestens so viel GiB (= 1024^3 Byte) NAND Kapazität wie GB (1000^3 Byte) Nutzkapazität vorhanden sind. Von diesen etwa 7% geht noch was für Verwaltungsdaten ab, aber das meiste ist Freier Bereich (Free Area). Manche nennen das auch schon Overprovisioning (OP), aber eigentlich meint Overprovisioning, dass man mehr freien Platz schafft als ab Werk vorgesehen. Das geht am Einfachsten, indem man schlicht nicht alle LBAs beschreibt, denn für einen Controller ist im Grunde alle freier Platz, was nicht mit gültigen Daten belegt ist.

Zur Erinnerung: Gültig sind Daten, wenn sie geschrieben werden und ungültig werden sie, wenn für die dazugehörige Adresse ein TRIM Kommando kommt oder neue Daten auf diese geschrieben werden. Die neuen Daten landen natürlich an einem anderen Flash Adresse! Funktioniert TRIM, so ist die SSDs für den Controller so voll wie für das Filesystem. Ohne TRIM ist sie so voll, wie die Summe aller je beschriebenen LBAs. Wer also ohne TRIM eine SSD einmal normal formatiert, der hat sie für den Controller von da an komplett mit Daten gefüllt. Mit TRIM schickt Windows TRIM Befehle beim Formatieren an alle freien Adressen und die SSD ist auch für den Controller wieder praktisch leer.

Hier geht es um die Situation ohne TRIM und da verhindert man so einen komplettes Beschreiben aller LBAs am besten indem man die Partition gleich im Neuzustand kleiner als die nutzbare Kapazität anlegt, denn dann werden vom System auch keine Schreibzugriffe auf die LBAs außerhalb der Partition erfolgen.

Jetzt aber zurück zum Thema, denn da sieht man welchen Einfluss das hat. Hier die 840Pro ohne OP:
samsung840prosm.png


Man beachte, das die Y-Skala llogarithmisch ist, wir hier also einen Abfall auf weniger als 10% der anfänglichen Performance (also dem Controller noch ein freier Bereich zur Verfügung steht, also die ersten Punkte ganz links) sehen. Je gößer der freie Bereich ist, umso länger bleibt die ursprüngliche Performance erhalten und umso geringer wird nacher der Leistungsabfall:
samsung12pct1sm.png


samsung25pct1sm.png


samsung50pct1sm.png


Bei 50% ist da schon keine Klippe mehr zu sehen sondern nur noch ein leichter Knick in der Kurve. Wieso hier die Anfangsleistung auch etwa geringer ist, kann ich aber nicht ganz nachvollziehen.

Nun sind diese Random Schreiblasten aber ehr untypisch für Heimanwendungen, da wird man doch ehr mal ein großes File auf dem RAID ablegen wollen und das soll möglichst schnell gehen oder muss, etwa bei einem Videomitschnitt, mit einer konstanten Mindestgeschwindigkeit erfolgen. Auch hier hilft ein Blick in Anands Reviews, denn er misst sowas immer unter der Überschrift "Performance Over Time & TRIM". Dabei löscht er die SSDs, füllt sie wie oben durch seq. Beschreiben aller LBAs und foltert sie dann noch eine zeitlang mit Random Writes, wie genau wie oben:
I filled all user addressible LBAs on the SSD 830, then proceeded to run our random write torture test on the now-dirty drive.[/URL]

Danach werden die SSD dann komplett seq. überschrieben:

Im Review der 830er sieht das nach 20 Minuten Folter so aus:



Nach 60 min Folter dann aber so:



Wie man sieht, kann man die Frage, wie stark die Performance denn einbricht, so pauschal nicht beantworten, denn das hängt eben sehr stark von der Nutzung ab.

Das ist übrigens eine Kurve, die man so nicht bei einer SSD haben will, die ohne TRIM betrieben wird. Der Abfall erfolgt praktisch sofort nach Beginn des Beschreibens, man kann also prakitsch keine Daten mit voller Geschwindigkeit schreiben. Entweder hat Anand der SSD keine Pause für die Idle-GC gegönnt oder es lag an der frühen FW.

Andererseits haben auch die 840 Basic



und die 840 Pro



da nicht gut abgeschnitten. Wie es aussehen sollte, sieht man im Test der Crucial m4 mit der 0009er FW:



Hier sieht man gut, wie die Schreibrate über ein paar GB hoch bleibt bevor sie abfällt. Der Controller hat den freien Bereich also im Idle aufgeräumt und somit etwas Platz geschaffen, der mit der vollen Performance beschrieben werden kann. Sobald ihm der ausgeht, bricht die Schreibrate zwangsläufig ein, denn nun muss der die Garbage Collection (GC) während des Schriebvorgangs ausführen, also den zu löschenden Block bestimmen (dabei das Wear-Leveling beachten), die Pages mit noch gültigen Daten darin kopieren, die denen zugeordneten LBAs neu mappen und dann den Block löschen. Diese GC hat jeder Flashsspeicher der mehr als einmal beschreibbar ist und das ist nicht mit der Idle-GC zu verwechseln, die zwar genau so etwas macht um freien Platz zu schaffen, aber eben wenn die SSD Idle ist.

Das klingt nach viel Arbeit und das ist es auch, weshalb die Schreibrate eben auch entsprechend abfällt. Das liegt u.a. daran, dass beim Kopieren der noch gültigen Daten der vorher gelöschte Block schon wieder zu einem guten Teil gefüllt wird. Da ohne TRIM Daten nur durch überschrieben der LBAs ungültig werden, nimmt im Laufe des Tests die Menge der Daten die zu kopieren sind immer mehr ab und daher steigt die Schreibrate auch langsam wieder an.

Sieht man so ein Verhalten, denn kann man auch Anands Erwartung teilen:
Hätte die m4 mehr freien Platz gehabt, so wäre der Abfall der Schreibrate auch erst später erfolgt, also nachdem entsprechend mehr Daten geschrieben wurden und dann natürlich auch nicht so massiv. Das ist wieder wie bei dem Test mit den Random Daten, nur dass bei 50% OP hier gar kein Abfall der Schreibrate mehr erfolgen sollte, weil der Controller dann ja immer soviel Platz aufräumen kann, wie man maximal nutzt. Das ist natürlich etwas extrem, da man ja nur die Hälfte der bezahlten Kapazität zur Verfügung hat und vermutlich auch total unnötig, denn wer beschreibt schon ständig die ganze Kapazität am Stück und braucht dabei auch immer die vollen Schreibrate? Also reicht es aus, soviel frei zu lassen, wie man eben am Stück schnell schreiben können möchte!

Hat man mit den Samsung denn nun die total falschen SSD für so ein Vorhaben? Vielleicht! Immerhin wurden die ja nicht mit der aktuellen FW getestet und Samsung hat da bei der Aufrechterhaltung der Performance ein Problem in der ersten FW der 830er gehabt, welche mit der aktuellen behoben wurde. Auch die Crucial m4 war im ersten Review mit der 0001er FW noch alles andere als gut:



Auch hier erfolgte der Abfall der Schreibrate sofort. Vielleicht hat der gute Anand bei dem einen oder anderen Test dem Controller auch einfach nicht genug Zeit für die Idle-GC gegeben.

Jedenfalls sollte jetzt klar sein, worauf es ankommt: Wenn die Idle-GC in der Situation den freien Platz aufräumt, dann kann man sicher sein, dass dieser Controller mit mehr OP auch mehr aufräumt und man somit auch mehr Daten mit voller Performance schrieben kann, selbst ohne TRIM.

Bei den ganze Sadnforce funktioniert das so nicht, weil die einfach anders arbeiten und obendrein verschieden Zustände haben. Nach dem Schreiben einer bestimmten Datenmenge die etwa dem OP entspricht, gehen die z.B. in den Recovery Modus und schreiben langsamer:
Deshalb testet Anand das bei denen auch gar nicht und man kann die sowieso nicht einsetzen, wenn man eben eine bestimmte Mindestschreibrate über ein größeres Datenvolumen garantieren muss.

BlackWidowmaker schrieb:
Und ob es z.B. einen Sweep-Point gibt also eine Anzahl von SSDs die nötig sind um den Wegfall von Trimm überzukonpensieren.
Die schlechtest Schreibrate liegt bei der m4 und bei der 840 etwa so bei 20MB/s und mit 8 von denen solltest Du also nicht unter 160MB/s kommen. :D

BlackWidowmaker schrieb:
Eine SSD pusht das ganze System und alle Anwendungen. Für so einen noch unsinnigeren Test steht plötzlich ein Hexacore zur Verfügung, aber eine 840er Pro wird mit einem i3 getestet? Das ist übelster Hardware-Rassismus. :lol:
Sowas müssen wir als Leser wohl nicht verstehen. Das ist aber nicht exklusiv bei CB so, denn Anandtech hat tolle SSD Reviews, fast immer die neuen SSD als erster im Test und testen die Motherboads trotzdem mit einer Crucial C300:
Nicht das die C300 schlecht wäre, aber damit kann man eben das Limit der SATA 6Gb/s Ports nicht wirklich ausloten. Bei den letzten MoBo Review wurde auf den Test der SATA Performance auch gleich ganz verzichtet :mad:

BlackWidowmaker schrieb:
Könnte es sein, daß ein Performance-Fetischist dann unter anderem auch deshalb 1TB SSD-Platz haben will um Overprovisioning ohne Ende betreiben möchte? Um z.B. auch das allerletzte Quäntchen an Performance aus so einer Konfiguration rauszukitzeln?
Da sind wir aber wieder an dem Punkt, der eben für die meisten total irrelevant ist. Das allerletzte Quäntchen Performance wird extrem teuer erkauft und am Ende bringt so ein RAID dann nichts mehr, weil man einfach nicht die vielen langen Zugriffe oder so viele parallele Zugriffe hat, als dass man vom den höheren Potential des RAID auch nur noch etwa mehr nutzen kann, außer in Benchmarks. Die Mehrzahl der Zugriffe liegt imm Bereich von 4k bis 128k.



Das ist genau der Bereich, wo die 840er alle anderen übertrumpfen und deshalb gewinnt sie dann auch in den praxisnahen Benchmarks während die Vertex4 da einen echten Durchhänger hat und daher auch viel schlechter abschneidet:



Das Stripping des RAID sollte man so wählen, das man entweder mehr IOPS bekommt, dann nimmt man ein kurzes Stripping, oder man will möglichst hohe seq. Transferraten, dann sollte es nicht unter 128KB (besser noch bei 256kB, denn ohne die 4 Overlappiung I/O von ATTO würde man sehen, dass 128kB bei SSD noch nicht reichen die maximalen Transferraten auch nur annährend zu erreichen, man sieht das z.B. an den Ergebnissen mit IOMeter, wo Anand mit 128kB bencht) liegen. Dann hat man aber erst bei Zugriffen so ab einer Länge die dem Stripping mal der Anzahl der SSDs entspricht einen echten Vorteil und damit ist man aber schon fast aus dem Bereich raus, der im Alltag eine Rolle spielt. Bei 2 SSDs im RAID 0 sind das 256kB und bei 8 gibt es die maximal Performance erst bei Zugriffen von 1MB.

BlackWidowmaker schrieb:
Ich möchte wirklich nicht behaupten, daß die RAID-Option die sinnvollere ist, doch es ist auf jeden Fall eine Option die gar nicht so abwegig ist wie Du es manchmal abtust.
Dann schreib doch bitte, welche sinnvollen Anwendungen Dir da einfallen? Ich kennen nur wenige und noch weniger Leute dürfte diese wirklich nutzen. Außerdem sie die Ergebnisse auf dem Test der einzelnen SSDs doch übertragbar und CB bekommt von den Herstellern oder Händlern sicher nicht einen Berg nagelneuer SSD zugeschickt, nur um die gleich alle im RAID benchen zu können. Die müssen doch froh sein, eine möglichst zeitnah zum Erscheinungstermin zu bekommen.
BlackWidowmaker schrieb:
Wie sollen denn die Daten zur CPU gelangen? Per Beam-me-up-Scoty? Was von der CPU verarbeitet werden soll, muß erst in den RAM gelesen werden. Wenn nicht genug RAM da ist muß ausgelagert werden.
Die Daten kommen von der SSD ins RAM und genau die SSD will man doch hier testen und nicht das RAM. Das die den Weg übers RAM nehmen, ist schon klar, nur wäre die SSD doch unnötig, wenn man deren ganzen Inhalt gleich ins RAM kopiert, weil man deren Performance dann allenfalls für den Kopiervorgang erfasst aber hinterher nur das RAM bencht. Viel RAM wird von Windows nur als Cache verwendet und stört daher die Messung der Performance der SSD nur, weil man dann eben noch weniger Unterschiede sieht.

BlackWidowmaker schrieb:
Sobald aber ausgelagert wird gibt es einen großen Performanceeinbruch. Daher RAM bis zur Oberkante und weg mit dem Swapfile.
Das ist ja richtig, hat aber mit den Benchmarks nichts zu tun, denn da sollte nicht geswappt werden und das überwachen die Tester hier ja wohl hoffentlich. 4GB sollte doch wohl reichen um die Benchmarks darin unterzubringen. Mehr RAM wird dann nur als Cache genutzt und schadet der Sache daher, gerade weil es die Performance erhöht. Deswegen ist das für den Anwender natürlich trotzdem sinnvoll, für das Testsystem aber gerade nicht.
BlackWidowmaker schrieb:
Sorry aber auch hierbei bin ich beratungsresistent wenn Du so willst, oder Du bist es aus meiner Sicht. Mehr Speicher bedeutet aus meiner Sicht der Dinge, daß eine SSD überhaupt erst ohne eine Limitierung durch zuwenig Speicher ihr volles Potential entfalten kann.
Deine Beratungsresistenz ist mir da schon aufgefallen, aber reinprügeln kann sich Dir die Erkenntnis auch nicht. Mehr RAM als die Programme und Daten belegen, braucht man nicht. Den Rest nutzt Windows (und auch Linux) als Plattencache und da SSDs viel schneller als HDDs sind, bringt das damit sogar im vergleich weniger Vorteile. Man braucht also nicht möglichst viel RAM um seine SSD ohne Limitierung nutzen zu können.
BlackWidowmaker schrieb:
Einen Test mit ausgeschaltetem Datenträgercache halte ich für genauso sinnlos weil praxisfremd wie eine nicht komprimierte Rar-Datei. Und eigentlich ist es ja deine Argumentaionsschiene für besser gesagt gegen den SF-Controller, daß Daten die sich zu 100% stark komprimierbar sind, in der Praxis keine Relevanz haben.
Da hast Du was nicht verstanden. Daten die 100%ig komprimierbar sind, haben keine praxisrelevanz weil die keine Informationen enthalten, das ist richtig. Aber der Test mit dem unkomprimierten Archiv ist etwas anderes, da sind die Daten ja nicht 100%ig komprimierbar sondern nur das Archiv ist nicht komprimiert, weil sonst eben die CPU limitert. Je nach Algorithmus sogar die schnellste Hexa-Core. Es geht bei dem Test um das gleichzeitige Lesen und Schrieben auf der SSD und auch da ist viel RAM wieder kontraproduktiv, weil die Daten dann einfach alle im RAM gecacht und dann am Stück geschrieben werden können. Das ist zwar dann schön schnell, zeigt aber eben leider nicht mehr, wie die SSD mit der Situation klarkommt, wenn gleichzeitig gelesen und geschrieben wird.

Kann es sein, dass Du Benchmarks nur als Rekordjagd verstehst? Dann sind Deine Argumente nachvollziehbar. Benchmarks machen aber eigentlich viel mehr Sinn, wenn man sie einsetzt um die Eigenschaftes des Produktes zu verstehen. Dann kann man auch viel besser auf Rekordjagd sehen, weil man weiß, was geht.

ralle_h schrieb:
Daher hat CB hier meiner Meinung nach "strategisch" alles richtig gemacht.
Das sehen ich auch so! Mehr Tests wären sicher wünschenswert, aber man muss auch den Aufwand dahinter sehen.
ralle_h schrieb:
Ansonsten könnte man gleich nur noch den Controller, Leistungsabfall der Schreibeleistung usw. untersuchen und sämtliche normalen Leistungsmessungen weglassen, ganz nach dem Motto "sind eh alle gleich schnell".
Solche Messungen sind aber komplizierter, denn das macht kein Benchmark, denn man einfach mal so startet und dann laufen lassen kann. Damit steigt auch die Fehlerquelle und wenn Du diese ganze Monsterbeitrag gelesen hast, dann wirst Du verstehen, was ich meine. Schon bei anands TRIM Tests bin ich mir nicht sicher, wie genau reproduzierbar die Tests abgelaufen sind und schon eine kürzere oder längere Folter oder Wartezeit können eine Menge ändern.

ralle_h schrieb:
Das ist leider nicht optimal und auch nicht die Seriosität, die CB anstreben sollte. Englische Websites wie Anandtech sind da leider den deutschen Magazinen um einiges voraus, da hat Black Widowmaker durchaus recht.
Deswegen sollte man eben auch immer möglichst viele Reviews auf möglichst verschiedenen Webseiten lesen, denn nur auf einer Seite findet man garantiert nicht alles. Dabei muss man aber auch kritisch sein, denn sonst fällt man auf machen Mist oder beim Test gemacht Fehler und darauf gezogener Fehlschlüsse rein.
 
Also erstmal wieder (wie so oft) Respekt vor deiner Arbeit, vorallem was Recherche und Aufbereitung angeht, das sind Dinge von dem hier das Forum lebt und profitiert, auch wenn man sich in der Sache nicht immer einig ist.

Bezüglich Benches schätzt Du mich aber falsch ein. Ich gebe eigentlich nichts darauf. Auch auf die hübschen Diagramme die Du gerne immer wieder präsentierst. Für mich ist letztendlich die Praxis relevant. Mein jetziges System ist eigentlich für die meisten Sachen stark überdimensioniert, dessen bin ich mir bewußt.

Aber genauso wie bei Autos, bei der ich Leistung jenseits von P/L oder gar Vernunftgründen suche, will ich Performance allein der Sache wegen, aus technischer Faszination heraus, gewiß nicht aus Notwendigkeit. Und wenn mich das wie gerade mal einen Monat den Schein kostet - what shels - aus Freude am Fahren passiert das einem BMW Fahrer halt. Natürlich könnte ich ich vielleicht vernünftig werden und mir einen Skoda kaufen. Mir ist das egal, deshalb suche gerade nach einem reinrassigeren Sportwagen ohne jegliche Vernunftsbasis. Vernunft ist immer etwas das keinen Spaß macht. Doch am Ende wird man sich in den letzten Sekunden seines Lebens sich daran errinern was man für tolle vernünftige Entscheidungen man im Leben getroffen hat? Wohl kaum man wird wohl mehr sich an den richtig spaßigen Erlebnissen im Leben erinnern.

Manche Menschen werden mit dem Alter ruhiger und weiser und fahren auch gediegener. Gott sei Dank möchte ich sagen, nicht auszudenken wenn jeder so ein Spinner wie ich wäre.:D

Back to topic: Ein schnelles System das wird schnell Gewöhnheit. Es fällt im Gegensatz zu einem schnellen Auto gar nicht so auf. Ein Rechner fällt meist dann auf, wenn er zu langsam wird. Bei mir war das 1404, das den Wunsch nach nicht nur einem performantem sondern zu einem Superrechner weckte.

Aber da Dir Anwendungen lieber sind, als ich z.B. mit Photoshop eine Full HD Animation aus nur 62 Einzelbildern auf 7 Ebenen erstellte ist mein Rechner dermaßen in die Knie gegangen, das glaubt man gar nicht. Selbst mit 32GB RAM ist man vom flüssigen Arbeiten noch weit entfernt.



Wie auch immer, hat man bei Photoshop 1000 Undo-Schritte voreingestellt, ist der Speicher selbst bei 32GB RAM mal alle, dann fängt Photoshop an auszulagern. Das ist dann kein Arbeiten mehr sonderrn eine Geduldsprobe, selbst auf einer High-End SSD. Genau hierbei kämme eine PCIe-SSD ins Spiel, sofern es eine gäbe die sich ein Enduser auch leisten könnte.

Genau so etwas würde ich mir mal als sinnvollen Test mal vorstellen, nicht die üblichen angeblichen praxisrelevanten Tests die nicht nur hier sondern bei anderen Magazinen genau so durchgeführt werden. Die machen nur Sachen die kein normaler User mit seinem PC machen würde und bezeichnen das als Test.

Ich habe eine sehr einfache Faust-Formel für mich gefunden: Muß ich länger als 10 Sekunden warten, ist mein Rechner zu langsam. Bei ständig wiederkehrende Sachen verkürzt sich diese Zeit auf 1s.
 
Blutschlumpf schrieb:
Also ich bin persönlich froh, dass nicht mit irgendwelchen absonderlichen Controllern, 500 Euro CPUs und Unmengen an Ram getestet wird.
Mag sein, dass ein "Wir testen Hardware für 5000 Euro, guckt mal was es tolles gibt was ihr euch nicht leisten könnt" Artikel auch oft angeklickt wird, aber von einer guten Seite erwarte ich auch Tests, die mir faktisch was nutzen.
Also das an einem Controller getestet werden sollte, den die Meisten auch nutzen sollte klar sein. Niemand kauft sich nen 500€ Controller für ne 100€ SSD.
Aber es muss schon vermieden werden, dass bei den Tests die CPU limitiert.

In den Tests will man schließlich zeigen welche SSD die schnellste ist. Die Unterschiede sind eh so gering, dass man da nen CPU-Limit nicht brauchen kann. Wenn du nur wissen willst ob du den Unterschied zwischen ner Samsung 830 oder 840 Pro spüren kannst, dann braucht man das nicht testen, das kann ich dir auch so sagen. Die ganzen Tests auf CB kann man sich dann sparen.

Bei den GPU-Tests wird auch ne starke CPU genommen, damit die ja nicht limitiert. Einfach um die reine GPU Performance zu ermitteln. Das man die entsprechende CPU Power benötigt sollte klar sein. Nur kann man ja nicht jede Konfiguration durchtesten.
Das gleiche gilt für SSD Tests. Warum sollte man da nicht die schnellste handelsübliche CPU nehmen?


Aber imho ist das eh theoretischer Natur. Ich bezweifel, dass die CPU da wirklich großartig limitiert. Ich denke (hoffe) das wurde auch vorjer mal getestet, bevor der Testaufbau gewählt wurde.
 
Zuletzt bearbeitet:
Gerade in langsamen Laptops oder Netbooks lohnt sich eine SSD. Die bringt da zwar deutlich weniger Bandbreite an SATA II als im Desktop, aber die Festplatte, die sie ersetzt ist auch eine langsame 2,5".
 
BlackWidowmaker schrieb:
Also erstmal wieder (wie so oft) Respekt vor deiner Arbeit, vorallem was Recherche und Aufbereitung angeht, das sind Dinge von dem hier das Forum lebt und profitiert, auch wenn man sich in der Sache nicht immer einig ist.
Dafür nicht, denn ich habe ja auch was davon meine Gedanken, Vorstellungen und Erinnerungen ständig zu ordnen, überprüfen und aktualisieren.

Es ist wie mit dem alten Trick, wenn man vor einem Problem steht: Man erklärt es seinem Teddybär oder der Kaffeetasse bevor man jemanden um Rat fragt. Es zwingt einen die Gedanken zu ordnen, das Problem klar zum umreißen, die Situation präzise zu beschreiben und die Frage klar zu formulieren. Dabei fällt einem dann oft schon die Lösung ein, weil man erkennt, wo man einen Gedankenfehler gemacht hat. Wer kennt das nicht, dass dies sonst erst beim Gespräch passiert und man (bzw. der Kollege) mit im Gespräch die Lösung schon selbst weiß?
BlackWidowmaker schrieb:
Bezüglich Benches schätzt Du mich aber falsch ein. Ich gebe eigentlich nichts darauf. Auch auf die hübschen Diagramme die Du gerne immer wieder präsentierst. Für mich ist letztendlich die Praxis relevant.
Wenn die Theorie nicht exakt beschreibt was in der Praxis passiert, ist sie unvollständig oder schlicht falsch. Kann der Praktiker aber in der Theorie nicht erklären was er erlebt, so ist er bei jeder neuen Situation auf zahlreiche Versuchen angewiesen um eine gute Lösung zu finden. Genau das möchtest Du ja aber nicht, sonst bräuchtest Du ja nicht hier zu lesen, richtig?

Das Problem vieler Benchmarks ist, dass die Leute nicht wirklich verstehen was die da genau ermitteln, auch die meisten Reviewer nicht. Deshalb habe ich diese Ergebnisse verschiedener Benchmarks zusammen getragen und versucht Dir zu erklären, was man nun darauf sieht, wie dies zu erklären ist, welche Rückschlüsse es also erlaubt (genau dafür diesen Benchmarks, man darf nur nicht erwarten aus einem Benchmark alles ablesen zu können) und wie dies zu Deinen Aussagen passt.

BlackWidowmaker schrieb:
Aber genauso wie bei Autos, bei der ich Leistung jenseits von P/L oder gar Vernunftgründen suche, will ich Performance allein der Sache wegen, aus technischer Faszination heraus, gewiß nicht aus Notwendigkeit.
Aber auch beim Auto ist es nicht anders, denn auch da muss alles zusammen passen, damit was brauchbares darauf wird. Es ist eben nicht damit getan, den kleinen Boxer im Käfer durch einen starken Ami-V8 zu ersetzen, denn dann steigt der Wagen vorne hoch, die Räder Platzen wenn deren maximal Geschwindigkeit überschritten wird und ans Bremsen oder das Kurvenverhalten möchte man gar nicht denken, wenn nicht der Rahmen oder die Hinterachse unter dem Gewicht gleich zusammenbrechen. :D

Auch ein Auto ist eben nur schnell, wenn alles aufeinander abgestimmt ist und zueinander passt. Und selbst dann muss das Auto noch zum Rennen passen. Ein Formel 1 ist aus seinen Strecken sauschnell, aber versuche damit nicht eine Rallye oder gar die Paris-Dakar zu fahren, Du würdest nicht weit kommen.

Die Lösung muss eben auch zum Problem passen, sonst bringt das alles nichts und verursacht nur hohe Kosten ohne praktischen Nutzen.

BlackWidowmaker schrieb:
Wie auch immer, hat man bei Photoshop 1000 Undo-Schritte voreingestellt, ist der Speicher selbst bei 32GB RAM mal alle, dann fängt Photoshop an auszulagern. Das ist dann kein Arbeiten mehr sonderrn eine Geduldsprobe, selbst auf einer High-End SSD.
Man muss sich natürlich auch realistische Ziele setzen, die den Bedingungen und Mitteln angepasst sind. Braucht man wirklich 1000 UnDo Schritte, wenn man solche Aufgaben ausführt? Aufgaben zu finden für die Mittel nicht reichen, ist keine Kunst. Baue eine Rakete die Dich zum Mars bringt und wieder zurück. Schon die Flüge zum Mond haben ein Vermögen gekostet und das Ziel zum Mars zu fliegen, wurde deshalb auch erstmal auf Eis gelegt.
BlackWidowmaker schrieb:
Genau hierbei kämme eine PCIe-SSD ins Spiel, sofern es eine gäbe die sich ein Enduser auch leisten könnte.
Es ist schön, wenn man immer schneller, weiter, höher will, denn das ist Teil der Natur des Menschen. Aber man muss sich auch mal nach der Decke strecken und seine Probleme mit den vorhanden bzw. erschwinglichen Mitteln zu lösen, denn dann kommt man weiter als wenn man nur von unerreichbaren Lösung träumt.

Ob Dir eine PCIe SSD wirklich bei Deinem Problem helfen würde, kann man nur sagen, wenn man die Art der Zugriffe analysiert. Dann könnte man auch die optimalen SSD und Einstellungen für ein RAID 0 wählen, was wohl günstiger wäre aber am Ende aufs gleiche hinausläuft, da alle aktuellen, halbwegs erschwinglichen PCIe SSDs eigentlich nur RAID 0 Controller mit mehreren SSDs darauf sind. Die sind auch alle auf bestimmte Lösungen optimiert, die den Problemen ihrer Hauptkunden entsprechen und die machen nun einmal etwas anderes als Du.
BlackWidowmaker schrieb:
Genau so etwas würde ich mir mal als sinnvollen Test mal vorstellen, nicht die üblichen angeblichen praxisrelevanten Tests die nicht nur hier sondern bei anderen Magazinen genau so durchgeführt werden. Die machen nur Sachen die kein normaler User mit seinem PC machen würde und bezeichnen das als Test.
Aber genau die Sachen die normale User am PC machen würden, interessieren die meisten User doch und letzlich müssen alle auch ihr Produkt verkaufen, was bei einer Seite wie CB bedeutet, es muss viele Leser geben. Nur so kommen Einnahmen durch Anzeigen zustande (schon die Server und Internetanschlüssen sind ja nicht umsonst zu haben, ob die Redakteure und Moderatoren überhaupt was und ggf. wieviel bekommen?) und Leihgaben oder Spenden von Hardware für Reviews durch Firmen. So wie extreme Hardware hier nur einen ganz kleinen Teil der User betrifft, spiegelt sich das halt auch nur recht vereinzelt wieder, aber dafür gibt es ja auch andere Foren wie xtremesystems.org und auf den vielen Seiten im Netz findet man auch immer wieder mal was dazu.
Ergänzung ()

Wenn Du übrigens mehr RAM brauchst, dann wäre eine Server Plattform die registered ECC oder load reduced ECC RAM verträgt für Dich die richtige Wahl. Damit ist auch ein RAM Ausbau jenseits vom 64 GB Limit (Sockel 2011 mit 8 None-ECC 8GB Modulen) der Cosumer HW möglich. Das kostet aber richtig Geld und wenn man seinen Rechner nur als Hobby betreibt, lohnt sich das niemals. Dann sollte man es sich nicht nur leisten wollen sondern auch leisten können. Sonst sollte man entweder seine Geduld dem Rechner anpassen, die Aufgaben nach der Geduld auswählen oder sich einen Zweitrechner daneben stellen, mit dem man die Zeit überbrückt.
 
Zuletzt bearbeitet: (Tippfehler beseitigt)
bensen schrieb:
Aber es muss schon vermieden werden, dass bei den Tests die CPU limitiert.
Die Frage ist, ob das überhaupt der Fall ist. Gibts irgendwo nen Vergleich bei dem die Unterschiede merklich größer ausfallen weil ne bessere CPU verbaut ist ?
Oder reicht ein i3 vieleicht ganz locker aus und selbst ein alter P4 würde nicht oder kaum limitieren ?
Ich würde gefühlt eher sogar zu letzterem tendieren.
 
Eine Seite hat vor einiger Zeit ihr Testsystem erneuert, um das CPU-Limit zu minimieren und zwar von einem stark übertakteten i5 2500K auf einen stark übertakteten i7 2600K.
Im Alltag reicht ein i3 natürlich aus, aber ein i3 ist nicht ansatzweise mit einem Core2 Duo oder auch Quad und schon garnicht mit nem P4 vergleichbar. Der P4 limitiert eine SSD sehr.
 
Und inwiefern hats was verändert ? Ohne den Part ist die Aussage "Irgendeine Seite hat ihr Testsystem verändert" total sinnfrei.
 
Blutschlumpf schrieb:
Gibts irgendwo nen Vergleich bei dem die Unterschiede merklich größer ausfallen weil ne bessere CPU verbaut ist ?

Bingo der Kanditat hat 1000 Punkte. Genau darum geht es mir. Es gibt diesen Vergleich eben nicht. Es gibt nur Annahmen wie:

Blutschlumpf schrieb:
Oder reicht ein i3 vieleicht ganz locker aus und selbst ein alter P4 würde nicht oder kaum limitieren ?
Ich würde gefühlt eher sogar zu letzterem tendieren.

Oder meiner eigenen, das selbst ein Hexacore sich in bestimmten Situationen limitierend auf eine High-End SSD auswirkt. Der Gedanke dahinter ist, daß Daten die von einem Massenspeicher verarbeitet werden letztendlich auch durch die CPU gehen müssen. Wenn die CPU aber zu langsam ist wird sie zum Flaschenhals. Genauso Theorie wie deine Annahme. Daher meine Forderung nach einem Test der solche Limits (sofern vorhanden) überhaupt erst ermittelt.

@ Holt: Die ganzen Zusammenhänge hierbei sind mMn zu komplex um wirklich umfassend von der Theorie erfasst werden zu können. Hierbei spielt nicht nur die Hardware sondern auch die Software und größtenteils das BS eine Rolle, dessen Funktionsweise MS nie gänzlich offen legen wird. Daher ist hierbei die Empirie der Theorie vorzuziehen.

Wie Du selbst sagst das Problem liegt hierbei, theoretische Werte richtig für die eigene Praxis zu interpretieren. Ich glaube daß ist eigentlich durch die Komplexität, kaum bis gar nicht möglich.

Bezüglich RAM & PCIe-SSD: Beim Computer war mir schon immer auch Design wichtig. OK ein grünes MB verbaut man wenn es keine anderen gibt. Es gibt tolle XEON-MBs die tolle Leistungen bringen, sehen aber hässlich wie die Nacht aus und bieten typisch benötigte Enduser-Funktionalität nicht, z.B. USB 3.0 oder einen HDMI-Ausgang u.ä. 2011er System wollte ich mir holen wegen der 8 RAM-Bänke, doch nur 2 native SATA-III Ports ist mMn Betrug am Kunden Enthusiasten. Einziger Lichtblick diesbezüglich: Das AsRock Z77 Extreme 11, das einzige MB z.Z. das Design und tolle Technik vereint. Es bietet einen 8-Kanal SAS 6GB/s Controller wo andere Hersteller bei ihrem Flagschiff nur mit Kindergartengeschichten a la Chipsatzkühler im Railgun-Design u.ä. aufwarten. Ich warte erstmal was IVY-EX bringt, dann sehen wir weiter. Was eine PCIe angeht halte ich nach wie vor das RevoDrive für die Perfekte Idee/Design nur dem Hersteller würde ich nichts abkaufen. Aber genau so sollte eine SSD sein, ohne jegliche Kabel und aufrüstbar (klar OCZ bietet diese Option nicht, doch die Hardware an sich prinzipiell schon), in dem man einfach ein Daughterboard draufsteckt.

PS: Woher wußtest Du bloß, daß ich als Jugendlicher immer von einem Käfer mit 500PS halb himmelsblau (Fahrerseite) halb rosa (Beifahrerseite) geträumt habe mit dem man jeden Ferrari nass machen kann?:D
 
Zuletzt bearbeitet:
BlackWidowmaker schrieb:
Bingo der Kanditat hat 1000 Punkte. Genau darum geht es mir. Es gibt diesen Vergleich eben nicht. Es gibt nur Annahmen wie
Solange kein Core während der Benchmarks auf 100% Auslastung kommt, limitiert die CPU nicht.

BlackWidowmaker schrieb:
Oder meiner eigenen, das selbst ein Hexacore sich in bestimmten Situationen limitierend auf eine High-End SSD auswirkt.
Irgendwas begrenzt die Performance eines Digitalrechners immer, sonst musst Du einen Analogrechner nehmen. Wenn das Berechnen der Daten länger dauert als der Schreiben der Ergebnisse auf die Platte, denn begrenzt natürlich die CPU in gewisser Form, anderseits ist dann aber die Platte kein Flaschenhals im System und das ist eigentlich die erstrebenswerte Normalsituation. Da bringt eine noch schnellere SSD dann auch keinen spürbaren Vorteil mehr, genau wie man es auch in den Praxistests der Reviews sieht.

Dein Problem ist doch wohl, dass Du zu wenig CPU Performance und zu wenig RAM hast. Damit beginnt das Swappen, was Du dann mit einer noch schnelleren SSD (RAID 0) beschleunigen willst, aber das wird gegenüber einem besseren RAM Ausbau immer eine viel schlechtere und ggf. auch teurere Lösung bleiben. Oder reduzieren den RAM Bedarf, etwa indem Du weniger UnDo Schritte einstellst.
BlackWidowmaker schrieb:
Der Gedanke dahinter ist, daß Daten die von einem Massenspeicher verarbeitet werden letztendlich auch durch die CPU gehen müssen. Wenn die CPU aber zu langsam ist wird sie zum Flaschenhals.
Das mag man bei SSD-Reviews noch so sehen können, aber beim normalen Rechner finde ich diese Sichtweise ein wenig verdreht. Das ist so, als würde Dein Auto 200 km/h schnell sein und Du ziehst V Reifen (bis 240km/h) auf und beschwerst Dich dann, der Motor wäre zu langsam, weil die Reifen ja schneller gefahren werden könnten. Das ist zwar sachlich nicht falsch, aber entspricht wohl kaum der normalen Sichtweise, denn man sucht sich eben gewöhnlich die Reifen entsprechend der Höchstgeschwindigkeit des Autos aus und versucht nicht die Höchstgeschwindigkeit auf das Limit der ausgewählten Reifen zu erhöhen.

BlackWidowmaker schrieb:
Die ganzen Zusammenhänge hierbei sind mMn zu komplex um wirklich umfassend von der Theorie erfasst werden zu können. Hierbei spielt nicht nur die Hardware sondern auch die Software und größtenteils das BS eine Rolle, dessen Funktionsweise MS nie gänzlich offen legen wird. Daher ist hierbei die Empirie der Theorie vorzuziehen.
Wenn man vom Gesamtsystem ausgeht, hast Du da nicht unrecht, aber wenn man sich auf die SSDs (RAIDs davon) beschränkt, dann lässt sich das schon recht gut theoretisch erfassen. Auch mit noch so vielen empirischen Versuchen wirst Du bestimmte Effekte nicht erreichen können.

BlackWidowmaker schrieb:
2011er System wollte ich mir holen wegen der 8 RAM-Bänke, doch nur 2 native SATA-III Ports ist mMn Betrug am Kunden Enthusiasten.
Das wusste aber jeder vor dem Kauf, weshalb man da nicht von Betrug reden kann, allenfalls von Verarschung, zumal im Vorfelde von mehr gesprochen worden war. Nur hat Intel den integrierten SAS Controller im X79 wieder deaktiviert, weil es damit zu viele Probleme, u.a. mit der Performance gab. Außerdem bietet AMD aber schon seid Anfang 2010 mit der SB 850 volle 6 SATA 6Gb/s Ports an, Du hättest also eine Alternative gehabt. Das hat mich z.B. 2010 dazu gebracht einen Phenom II X6 statt einer Intel CPU zu kaufen.

Das Intel aber auch den Enthusiasten bisher nicht mehr bzw. sogar weniger (der X79 hat kein USB3) aktuelle Schnittstellen als dem Mainstream (S.1155) bietet, finde ich auch eine Frechheit und das hält mich auch davon ab auf die Plattform umzusteigen und wenn sich da diese Jahr nichts ändert, zumal ja Haswell dann mit 6 SATA 6Gb/s Ports für den neuen Mainstream Sockel 1150 kommt, dann werde ich vermutlich nochmal bei AMD bleiben und einen FX8350 nehmen. So schlecht wie die in den meisten Benchmarks und Reviews abschneiden, sind sie nicht. Man muss nur die Software entsprechend optimieren, wie es etwas bei WinRAR in der Version 4.2 geschehen ist:

winrarb_3min.png


Trotzdem werden auch weiterhin fast alle WinRAR Benchmarks in CPU Reviews mit älteren WinRAR Versionen gemacht, die nur maximal 4 Kerne auslasten kann und wo der FX8350 dann nur etwa auf Höhe des i5-3570K liegt. Bei mir läuft hauptsächlich selbst geschriebene SW auf den Rechnern und die ist massiv parallel und ohne Intel Compiler kompiliert. Obendrein kann ich da auch ohne teure Serverhardware mit den meisten ASUS 990FX Boards auch ECC RAM nutzen, was bei den heutigen RAM Größen durchaus ein Vorteil ist.

BlackWidowmaker schrieb:
Einziger Lichtblick diesbezüglich: Das AsRock Z77 Extreme 11, das einzige MB z.Z. das Design und tolle Technik vereint.
Würdest Du mit Design weniger die Optik als mehr das technische Design meinen, dann würdest Du schnell merken, was für eine Krücke das ist. Der Z77er Chipsatz bietet wie alle Intel Maintream Chipsätze viel zu wenige PCIe Lanes für die ganzen Controller die da verbaut sind. Wenn, dann macht das ASRock X79 Extreme11 viel mehr Sinn. Andererseits kann Du auch fast jedes andere X79 Board nehmen und den Controller in Form einer LSI SAS 9207-8i selbst nachrüsten, denn die hat auch den LSI SAS 2308 Controller drauf. Mit der IR mode Firmware beherrscht die auch den RAID 0 Modus.
BlackWidowmaker schrieb:
Es bietet einen 8-Kanal SAS 6GB/s Controller wo andere Hersteller bei ihrem Flagschiff nur mit Kindergartengeschichten a la Chipsatzkühler im Railgun-Design u.ä. aufwarten.
Ist eben alles für Leute die Design nur mit Aussehen gleichsetzen und nicht hinter die Kulissen schauen. Genau wie Du, sonst wäre Dir aufgefallen, dass auf dem Board viel mehr PCIe Lane genutzt werden, als der Chipsatz überhaupt bietet (es sind nur 16 PCIe Lanes von der CPU die auch nur auf maximal 3 GraKas aufgeteilt werden dürfen, man beachte die beiden or oben links!):

Z77-blockdiagram_450x408.jpg


Das geht nur über Lane Multiplexer und damit auf Kosten der Bandbreite, wenn mehr Lanes gleichzeitig genutzt werden als wirklich vorhanden sind. Der Systemstabilität ist sowas auch nicht wirklich förderlich. Wer so viel I/O will, der muss bei Intel zum X79 greifen, denn die Plattform bietet genug PCIe Lanes und die sind auch nicht nur für GraKas gedacht wie beim S.1155:

x79-blockdiagram-800x696.png


BlackWidowmaker schrieb:
Ich warte erstmal was IVY-EX bringt, dann sehen wir weiter. Was eine PCIe angeht halte ich nach wie vor das RevoDrive für die Perfekte Idee/Design
Entweder willst Du Performance oder ein hüsches Aussehen, beides zusammen wird dann wohl richtig teuer. Die Revos sind von der Performance nicht toll und obendrein nicht günstig, diese Rechnung ist 3 Monate alt und die Preise haben sich seidher gändert, aber im Prinzip ist es noch das gleiche. Gerade wenn Du viel am Stück mit hoher Geschwindigkeit seq. schreiben willst, wirst Du mit den Sandforce nicht weit kommen und mit denen von OCZ schon gar nicht, denn die SF SSDs von haben alle Sandforce-Life-Time-Throttling im Durawrite aktiviert.

BlackWidowmaker schrieb:
Woher wußtest Du bloß, daß ich als Jugendlicher immer von einem Käfer mit 500PS halb himmelsblau (Fahrerseite) halb rosa (Beifahrerseite) geträumt habe mit dem man jeden Ferrari nass machen kann?:D
Weil Du bei der Computerhardware noch immer genauso ausgereifte Träume hast und nicht weiter als bis zum Ende der Gerade denkst und dann in der Kurve immer gleich abfliegst. Nur der dickste Motor und die breitesten Reifen alleine ergeben eben nicht automatisch das schnellste Auto! Ebensowenig ergbit die dickste CPU und die SSD mit den besten Papierwerten das besten und schnellste System für Deine Anforderungen.
 
Herculesfreak5 schrieb:
Ihr solltet mal wieder aktuelle magnetische Platten testen, nicht nur SSD's.

+1 Sign! Vorallem dessen Vergleich zur SSD. Natürlich sind die SSD's viel schneller, das will ich nie und nimmer behaupten, aber ich in mein Fall mit meinen vielen Daten, brauche einfach ein Harddisk bzw. jetzt 4x 3TB.
 
Bei den HDDs sind die Unterscheide doch minimal, wenn man Modelle mit der gleichen Drehzahl und Kapazität pro Plattern betrachtet. Dagegen sind die Unterschiede zwischen den verschiedenen SSDs gewaltig und da die SSDs als Systemlaufwerke immer mehr an Bedeutung gewinnen, werden HDDs zunehmend nur als Datengrab verwendet und da spielt die Performance dann eine noch kleinere Rolle. Da kommen eher die Fragen nach der Zuverlässigkeit, aber wie soll man die in einem Review klären? Das geht nur bei Tests / Beobachtungen über viele Tausend Exemplare und einen sehr langen Zeitraum. Wenn man dann das Ergebnis hat, die sind Dinger längst veraltet.
 
Zurück
Oben