Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMarvell stellt SSD-Controller der 3. Generation vor
Weil die Entwicklung ebene immer weiter gehen, sowohl bei den NANDs als auch bei den Standards und dem muss man eben auch mit neuen Controller Rechnung tragen, sonst verliert man im Wettbewerb eben.
Mal ganz realistisch gesehen, wozu braucht man bis in vielleicht fünf Jahren eine sequentielle Lese-/Schreibgeschwindigkeit von über 500 MB/s? Bei zufälligem Zugriff sind die Geräte noch längst nicht so weit.
...
Bei großen Datenmengen und schnellem Zugriff denke ich sofort an Server und viele parallele Zugriffe, wo wir wieder bei zufälligen Zugriffen wären.
1.) Privates Umfeld: Videoaufzeichnung mittels FRAPS bei Auflösung ab 1920x1080 (benötigt >200MB/s, was bei 256GB SSDs nur die Samsung 830 dauerhaft schafft)
2.) Forschung: HP hatte ewig lang in der c´t eine Werbung, das sie die Daten vom Atlasdetector vom CERN (das ist der 26km lange unterirdische Beschleunigerring) mittels 20x 1GBit Leitungen auf 20 Institute verteilen. Von den originalen Daten werden aber schon vorab 90% verworfen. Die anfallenden Datenmenge ist ungeheuer groß, der Zeitraum dafür sehr klein - aber irgendwohin müssen ja die Daten geschrieben werden. Und so gibts allein in der Physik Dutzende wenn nicht Hunderte Projekte wo Sensoren kurzzeit enorme Datenmengen generrieren, die mittels Fesplattenarrays kaum zu bewältigen sind.
zu 1.) Sind es bei 60 fps nicht sogar 355 MB/s? Von der Sinnhaftigkeit und Notwendigkeit absolut verlustfreier Komprimierung (fast verlustfrei spart schon Unmengen an Daten) mal abgesehen reicht Sata 6Gb doch völlig hierfür. Dass es auf Dauer niemand schafft zeigt doch, dass wir noch gar keine neuen Übertragungsstandards brauchen.
Btw. kommt man mit lossless-Komprimierung schon in Bereiche, die eine ganz gewöhnliche Festplatte verarbeiten kann. Bei sequentiellem Zugriff sind die ja auch vergleichsweise schnell.
zu 2.) Die Daten fallen innerhalb von Nanosekunden an, korrekt? Da hilft auch kein fiktives Sata 12Gb, die kann man nur im Ram speichern, bis man sie langsam zurückschreiben kann. Wir reden hier von Terra-, wenn nicht sogar Petabytes an Daten, oder? Hierfür scheinen mir SSDs einfach schon von der Speicherkapazität her nicht ausreichend zu sein. Die Aktuell größten Festplatten sind drei Mal so groß wie die größten SSDs.
2.) Forschung: HP hatte ewig lang in der c´t eine Werbung, das sie die Daten vom Atlasdetector vom CERN (das ist der 26km lange unterirdische Beschleunigerring) mittels 20x 1GBit Leitungen auf 20 Institute verteilen. Von den originalen Daten werden aber schon vorab 90% verworfen. Die anfallenden Datenmenge ist ungeheuer groß, der Zeitraum dafür sehr klein - aber irgendwohin müssen ja die Daten geschrieben werden. Und so gibts allein in der Physik Dutzende wenn nicht Hunderte Projekte wo Sensoren kurzzeit enorme Datenmengen generrieren, die mittels Fesplattenarrays kaum zu bewältigen sind.
Wenigstens gibt es mittlerweile einige Leute mehr, die dem immernoch herumgeisternden Wahn der sequentiellen Transferraten entgegentreten!
Die im Alltag spürbare Verbesserung der SSDs allgemein gegenüber der HDD ist doch nicht der sequentielle Transferleistung zu verdanken, sondern einzig und allein der Zugriffszeit und der Schreib-/Leseleistung bei zufälligen Zugriffen. Und hier gibt es sicher noch was zu verbessern.
Wer mir jetzt allerdings nachweist, mit dem Lesen und/oder Schreiben vieler kleiner Dateien eine Datenrate von 500 MB/s hinzubekommen, dem stimme ich zu, daß wir unbedingt SATA 12GB/s brauchen...!
Wolfsrabe, die Transferraten bei kleinen Zugriffen werden aber leider künftig ehr schlechter werden, zumindest sofern man keine neue Technik wie Cache oder eine andere Verteilung der Daten über die NANDs einsetzt. Denn die Pagesize werden im schrumpfenden Fertigungsstrukturen weiterhin zunehmen und die Latenz ebenfalls. Von daher werden SSD künftig ehr bessere seq. Transferraten und vielleicht noch mehr IOPS bei hohen Queue Depth (die Normaluser sowieso nicht erreichen) bieten, aber die reine 4k Leistung dürfte ehr abnehmen.