News SuperTalent präsentiert TeraDrive-SSDs

ScoutX schrieb:
Ich liebe diese Werbeslogans, die einfach vom Controllerhersteller Sandforce übernommen werden.
Wie kann eine SSD in der Testphase sein und doch gibt man konkrete und vollmundige Tatsachen heraus.
Die SLC mit 200 GB würde ich gerne einer monatelangen Torrentsession unterziehen. Denn dort habe ich aktuell etwas Probleme mit HDDs, wenn ich nicht alle paar Wochen ein Defrag durchführe.

Kleiner Tip: Stell dein Torrent-Programm so ein, dass er den Torrent-Download auf eine physisch andere Festplatte / Partition verschieben soll, sobald sie fertig ist. Dann wird diese extreme Fragmentation des Torrent-Downloads automatisch aufgelöst, da auf der Zielplatte ja sequentiell geschrieben wird ;-)
 
Zuletzt bearbeitet:
Es bringt einem aber nichts, wenn die Datei am Ende zusammengefügt werden soll und die vielleicht mehrere GB grosse Datei nirgendwo alleine hinpasst. Das Ergebnis wäre wieder mehrere Fragmente.

Aber ganz ehrlich?
Genau da muß es niemand interessieren. Perf. ist da unwichtig, weil Torrent zu mehr als 90% eh unbeaufsichtigt arbeitet.
 
Schade wieder nur 260MB/s (SATA III möchte auch gefordert werden) und wird bestimmt immer noch kein Schnäppchen werden leider.
 
Snoopy69 schrieb:
Es bringt einem aber nichts, wenn die Datei am Ende zusammengefügt werden soll und die vielleicht mehrere GB grosse Datei nirgendwo alleine hinpasst. Das Ergebnis wäre wieder mehrere Fragmente.

Aber ganz ehrlich?
Genau da muß es niemand interessieren. Perf. ist da unwichtig, weil Torrent zu mehr als 90% eh unbeaufsichtigt arbeitet.
öhm... die datei wird nicht am ende zusammengefügt, sondern von anfang an in die im vorfeld "inhaltslose" xxx mb grosse datei einsortiert, da landet nichts in einem temp verzeichnis (oder vergleichbares). die einzige fragmentierung die hier vorliegt ist die, die bei der erstellung der "platzhalter datei" entsteht (also ein "normaler" grad an fragmentierung - vergleichbar zu der, die man hat, wenn man nach einiger zeit ein spiel installiert, ohne vorher zu defragmentieren. nicht aber diese extreme fragmentierung, wie wenn halt mehrere downloads jeweils 1mb grosse blöcke gemsicht ablegen).

aber selbst wenn, bei ssd laufwerken ist die negative auswirkung einer fragmentierung erheblich geringer, als bei einer althergebrachten festplatte (um nochmal den bogen ein wenig richtung topic "neue ssd" zu bekommen)
auch wäre es verschwendung, torrents / downloads generell auf auf eine ssd zu speichern. da reicht eine klassische festplatte allemal aus und der speicherplatz auf ssds ist mit system und programm dateien sinnvoller beleget
 
Irgendwie haben die Hersteller von Festplatten die Ruhe weg. Ich kann mich da noch an eine Seagate 2,5" HDD erinnern, die ca 1/2 Jahr nachdem der erste Shop sie gelistet hat ausgeliefert wurde. Auf die WD 1TB 2,5" wartet man ebenfalls vergebens. Bei den SSDs siehts auch nicht viel besser aus, Intels 320GB Postville scheint immernoch nicht lieferbar zu sein und bei jeder News zum Thema SSD hoffe ich, dass ein Hersteller endlich mal mit der Auslieferung neuer Modelle (>256GB) beginnt, aber nein, es heißt wiedereinmal: Wir werden irgendwann demnächst mit der Produktion beginnen. Wann die Auslieferung beginnt weiß man nicht genau und wann die Dinger dann auch in de verfügbar sind steht in den Sternen.
 
für alle die über SATAII schimpfen... die Micron C300 aka Crucial Real SSD wird schon mit SATAIII kommen und schafft ~380mb/s siehe http://www.micronblogs.com/

das einzige wo sie eine spur langsamer sein soll als die Intel ist in der mittleren Zugriffszeit hier im übrigen im direkten Vergleich zur 160GB Postville:
http://www.micronblogs.com/2009/12/benchmarking-c300/

ist zwar alles vom Hersteller direkt, aber die Leistung scheint schon heftig zu sein *gg* vor allem find ich geil, dass man ab 8K schon über dem SATAII Limit ist siehe den ATTO bench den ich aus dem Video kopiert habe:
https://www.computerbase.de/forum/t...aufberatung-ssds.602017/page-182#post-7218877

generell glaub ich auch nicht, dass heuer der Speicherpreis großartig fallen wird. bereue es schon fast dass ich mir im Sommer in den USA zu den Spottpreisen nicht gleich noch eine MasterDrive SX geholt hab (128gb für 230€ ;))
 
finde den namen auch irreführend da er im ersten moment suggeriert es wäre eine terrybyte große ssd und auch auf den zweiten blick den sinn von tera nicht einleuchtet. was haben die sich dabei nur gedacht
 
AndrewPoison schrieb:
Na endlich, teure SSDs - darauf hab ich gewartet! Echte Marktlücke :D

Lieber neue (vorerst) teure SSDs welche die Messlatte in sachen Leistung wieder nach oben heben als die hundertste billigversion die doch wieder nicht an Intel herankommt.
Preisdruck entsteht nicht durch minderwertige billigheimer sondern durch mehrere Produkte die sich in sachen Leistung gegenseitig druck machen und die schwächeren dann zu Preisnachlässen zwingen.
 
@NoD.sunrise *zustimm*
Ergänzung ()

vor allem diese ganzen 30GB und 40GB krücken gehen mir auf die nerven -> hauptsache sie kosten unter 100€ :freak:
 
@SSDfix: Das kann sein, dass es 90% des Herstellungspreises ist. Ich weiß zwar nicht, wieviel das ist, aber sicher nicht mehr als die Hälfte (oder nur ein Viertel? von dem, was wir bezahlen müssen.

Cu
Lasyx
 
Das mit den Torrents mache ich schon so. Es ist tatsächlich nur eine Torrentplatte und Daten werden dann sequentiell auf andere HDDs geschrieben/gesichert.
Auch das Festlegen des Speicherbereichs ist gegeben, nur das funktioniert nicht optimal.
Es ist bei den meisten Klienten nur der Bereich angegeben, oft noch nicht mal physikalisch, sondern einfach als Dummy des Dateisystems. Dadurch werden die Einzelabschnitte irgendwohin geschrieben oder in einem Bereich zerstreut abgelegt, aber nicht sequentiell vorgeordnet.

Bei sequentieller Vorordnung wird die HDD bzw. die Lese-und Schreibköpfe so stark beansprucht, das selbst bei der geringen Auslastung von 2MB/s die HDD-Performance kaum noch ausreicht. HDD Cache hin oder her.
(Höchstens mit Extragroßem Cache von Controllern ala Areca)

Zurück zum Defrag. Es geht hier vor allem auch um den gleichzeitigen Upload. Die Lesevorgänge der HDD erzeugen durch das 90% Random Read auch ein IO Einbruch Richtung CPU. Da hilft NCQ nur begrenzt.

Deswegen wäre ein haltbare (SLC) SSD im 200 GB Bereich und angegeben IOPS sinnvoll.
 
ScoutX schrieb:
Zurück zum Defrag. Es geht hier vor allem auch um den gleichzeitigen Upload. Die Lesevorgänge der HDD erzeugen durch das 90% Random Read auch ein IO Einbruch Richtung CPU. Da hilft NCQ nur begrenzt.

1. bringt dir Defrag für das lesen so oder so völlig unterschiedlicher sehr kleiner dateistückchen fast gar nichts.

2. Wie viel upload hast du denn um deine HDD nennenswert zu belasten? Also selbst 1mbit upstream sind ja gerade 125kb/s - wie viel last wird das wohl auf die HDD werfen wenn die jede minute mal wieder ein paar MB in den Ram lädt?
 
ScoutX schrieb:
Auch das Festlegen des Speicherbereichs ist gegeben, nur das funktioniert nicht optimal.
Es ist bei den meisten Klienten nur der Bereich angegeben, oft noch nicht mal physikalisch, sondern einfach als Dummy des Dateisystems. Dadurch werden die Einzelabschnitte irgendwohin geschrieben oder in einem Bereich zerstreut abgelegt, aber nicht sequentiell vorgeordnet.

Welchen Client verwendest du?

ScoutX schrieb:
Bei sequentieller Vorordnung wird die HDD bzw. die Lese-und Schreibköpfe so stark beansprucht, das selbst bei der geringen Auslastung von 2MB/s die HDD-Performance kaum noch ausreicht. HDD Cache hin oder her.

Naja, auf 2 MB/s kommt nicht jeder, aber selbst wenn, das sind ja keine 4kB Dateien. Was ich bei meinen Torrents bisher so gesehen hab sinds 4MB Teile. Damit sind die größer als gewöhnliche Fotos von der Digicam.

ScoutX schrieb:
Zurück zum Defrag. Es geht hier vor allem auch um den gleichzeitigen Upload. Die Lesevorgänge der HDD erzeugen durch das 90% Random Read auch ein IO Einbruch Richtung CPU. Da hilft NCQ nur begrenzt.

Wie schnell lädst du hoch? Normal ist man ja nur mit 2-4 Personen verbunden die jeweils eine Reihe von Teilen anfordern.

Wenn man allerdings eine Seebox betreibt kann es durchaus sein das man mit HDDs u.U. Probleme bekommt.

ScoutX schrieb:
Deswegen wäre ein haltbare (SLC) SSD im 200 GB Bereich und angegeben IOPS sinnvoll.

Naja, ich weiß nicht wie du das siehst, aber die Teile für Torrents sind doch groß genug um auch von HDDs genug Leistung zu bekommen.

Meine empfehlung in dem Fall wäre ein Raid, evtl. mit VelociRaptor/SAS HDDs. So wie's jetzt aussieht werden 200GB SLC für die nächsten paar Jahre vorerst mal unbezahlbar bleiben.
 
naja nichts neues für mich hier und ich finde so neu an sich ist es ja auch nicht gerade. Die sollten lieber erstmal sehen das die 60-256GB SSD für günstigen preis herstellen können und das auch teurere mit spitzen Leistung verfügbar werden, also jetzt SSD herzustellen für Datensicherung was ja kein nutzt.
 
8 GB MLC-Flash kosten als Kontrakt $15,50. Demzufolge kosten 64 GB schon 124 Dollar! 128 GB entsprechend 248 Dollar!

Hinzu kommen die Kosten für Gehäuse, Controller, PCB, Marketing, Transport, Website, Support, 19% MwSt! usw.

Und dann soll auch noch eine passable Marge übrig bleiben.

Der Preis von SSDs wird also geradezu vom Flash-Preis diktiert. Da können die Hersteller der SSDs überhaupt nichts machen (außer Samsung, weil sie den Flash selbst produzieren).
 
Bin gespannt auf erste Tests!
 
Ich bin froh, dass ich meine 80er Postville gleich nach Auslieferung für 186€ bekommen habe. Heute ist sie ja sogar noch teurer.
Ins neuen Notebook meiner Frau hätte ich am liebsten auch eine SSD drin. Schade, dass man Notebooks (von der Stange) nicht ohne Festplatte kaufen kann. Eine 30-40GB SSD würde fürs Notebook eh reichen, da wir (bald) ein NAS einsetzen werden.

Ich habe die 186€ noch nie bereut. Gönnt euch doch den Luxus und sei es nur für die Systempartition. Ich garantiere euch, ihr wollt nie wieder an einem Rechner ohne SSD arbeiten.
Ich drehe hier im Geschäft vor lauter Warten fast durch!
 
Moros schrieb:
Der Preis von SSDs wird also geradezu vom Flash-Preis diktiert. Da können die Hersteller der SSDs überhaupt nichts machen (außer Samsung, weil sie den Flash selbst produzieren).

*hüstel* ...und Intel (die mit Micron en Partnerschaft haben) ;)
 
Hm, interessant bei einer SSD sind für mich persönlich die Kombination aus sequentieller und verteilter Lese- UND Schreibrate (Intel die mit 80MB/s rumkrebst oder so) , ausserdem denke ich dass die Flashpreise nicht so weit runtergehen werden, wobei jetzt langsam die Grundlage zur Massenproduktion gelegt ist... und ob man sich ne Graka für 300€ kauft oder ne SSD für 300, hängt von einem selbst ab und von dem was man al wichtig erachtet, nur bei SSDs wird sich das nach derzeitigem Stand noch ne Weile halten.

Was ich am Sandforce geil finde ist der angebliche integrierte Komprimierungsalgo, mag zwar nur marginale Vorteile bringen, aber ist cool was mit SSDs im Gegensatz zu HHDs möglich ist... wird ein interessantes Technologie-Controllermatch geben, wenn noch andere Konzepte dort integriert werden.
 
Zuletzt bearbeitet:
Thion schrieb:
Was ich am Sandforce geil finde ist der angebliche integrierte Komprimierungsalgo, mag zwar nur marginale Vorteile bringen, aber ist cool was mit SSDs im Gegensatz zu HHDs möglich ist... wird ein interessantes Technologie-Controllermatch geben, wenn noch andere Konzepte dort integriert werden.

Warum sollte das bei HDDs nicht möglich sein? Bieten Flash-NANDs irgend eine besondere Eigenschaft die eine Komprimierung in irgend einer Form begünstigt?

Das ist auch genau der Grund warum ich diesem SandForce Controller nicht traue. Wenn das so ohne weiteres (vor allem ohne stark erhöhtem Risiko zum plötzlichen totalen Datenverlust wenn nur wenige Zellen ausfallen) machbar wäre, dann Hätten es HDD Hersteller doch schon längst umgesetzt.


Ganz davon abgesehen dass das Ganze bei stark komprimierten Daten (Videos, Bilder, Musik - also all den Sachen die wesentlich mehr Platz brauchen als alles andere) vermutlich ein Schuss nach hinten sein wird, da die Daten am ende dann evtl. größer sein werden.

Und natürlich bleibt dann noch die Frage bei der Systempartition wieviel MB/s wirklich zusammengebracht werden beim 4k-Random-Read wenn (im idealfall) alles bis auf die hälfte runterkomprimiert ist und u.U. dann (erwartungsgemäß) auch noch einzelne Zellen ausgefallen sind.
 
Zuletzt bearbeitet:
Zurück
Oben