News Marvell stellt SSD-Controller der 3. Generation vor

Rob83 schrieb:
Die sollen lieber mal in die Breite gehen und 500mb SSDs für 150€ rausrücken.
500mb für 150€ wären ja kein Problem, 500GB für den Preis aber eine Sensation :D
 
...oder auch gleich umsonst, zumindest für alle Poweruser mit mindestens zehn Postings in Hardwareforen pro Tag :rolleyes:
 
rainbow6261 schrieb:
Warum schon wieder was neues?
Weil die Entwicklung ebene immer weiter gehen, sowohl bei den NANDs als auch bei den Standards und dem muss man eben auch mit neuen Controller Rechnung tragen, sonst verliert man im Wettbewerb eben.

rainbow6261 schrieb:
Sollten mal was am Preis drehen.
Machen sie doch, es steht doch in der News: "soll der Marvell 88SS9187 auch noch weniger kosten als sein Vorgänger."
rainbow6261 schrieb:
10 Cent pro GB wären schon was.
Klar, wieviel müsste eine Fima Dir denn so zahlen, damit Du so gnädig wärst, deren Hardware in deinem Rechner einzusetzen? :lol:
 
riDDi schrieb:
Mal ganz realistisch gesehen, wozu braucht man bis in vielleicht fünf Jahren eine sequentielle Lese-/Schreibgeschwindigkeit von über 500 MB/s? Bei zufälligem Zugriff sind die Geräte noch längst nicht so weit.
...
Bei großen Datenmengen und schnellem Zugriff denke ich sofort an Server und viele parallele Zugriffe, wo wir wieder bei zufälligen Zugriffen wären.

Beispiele:

1.) Privates Umfeld: Videoaufzeichnung mittels FRAPS bei Auflösung ab 1920x1080 (benötigt >200MB/s, was bei 256GB SSDs nur die Samsung 830 dauerhaft schafft)

2.) Forschung: HP hatte ewig lang in der c´t eine Werbung, das sie die Daten vom Atlasdetector vom CERN (das ist der 26km lange unterirdische Beschleunigerring) mittels 20x 1GBit Leitungen auf 20 Institute verteilen. Von den originalen Daten werden aber schon vorab 90% verworfen. Die anfallenden Datenmenge ist ungeheuer groß, der Zeitraum dafür sehr klein - aber irgendwohin müssen ja die Daten geschrieben werden. Und so gibts allein in der Physik Dutzende wenn nicht Hunderte Projekte wo Sensoren kurzzeit enorme Datenmengen generrieren, die mittels Fesplattenarrays kaum zu bewältigen sind.
 
@UweW.:

zu 1.) Sind es bei 60 fps nicht sogar 355 MB/s? Von der Sinnhaftigkeit und Notwendigkeit absolut verlustfreier Komprimierung (fast verlustfrei spart schon Unmengen an Daten) mal abgesehen reicht Sata 6Gb doch völlig hierfür. Dass es auf Dauer niemand schafft zeigt doch, dass wir noch gar keine neuen Übertragungsstandards brauchen.
Btw. kommt man mit lossless-Komprimierung schon in Bereiche, die eine ganz gewöhnliche Festplatte verarbeiten kann. Bei sequentiellem Zugriff sind die ja auch vergleichsweise schnell.

zu 2.) Die Daten fallen innerhalb von Nanosekunden an, korrekt? Da hilft auch kein fiktives Sata 12Gb, die kann man nur im Ram speichern, bis man sie langsam zurückschreiben kann. Wir reden hier von Terra-, wenn nicht sogar Petabytes an Daten, oder? Hierfür scheinen mir SSDs einfach schon von der Speicherkapazität her nicht ausreichend zu sein. Die Aktuell größten Festplatten sind drei Mal so groß wie die größten SSDs.
 
UweW. schrieb:
2.) Forschung: HP hatte ewig lang in der c´t eine Werbung, das sie die Daten vom Atlasdetector vom CERN (das ist der 26km lange unterirdische Beschleunigerring) mittels 20x 1GBit Leitungen auf 20 Institute verteilen. Von den originalen Daten werden aber schon vorab 90% verworfen. Die anfallenden Datenmenge ist ungeheuer groß, der Zeitraum dafür sehr klein - aber irgendwohin müssen ja die Daten geschrieben werden. Und so gibts allein in der Physik Dutzende wenn nicht Hunderte Projekte wo Sensoren kurzzeit enorme Datenmengen generrieren, die mittels Fesplattenarrays kaum zu bewältigen sind.
das sichert man auf ram, die sehr viel schneller sind als jede ssd.
 
Wenigstens gibt es mittlerweile einige Leute mehr, die dem immernoch herumgeisternden Wahn der sequentiellen Transferraten entgegentreten!

Die im Alltag spürbare Verbesserung der SSDs allgemein gegenüber der HDD ist doch nicht der sequentielle Transferleistung zu verdanken, sondern einzig und allein der Zugriffszeit und der Schreib-/Leseleistung bei zufälligen Zugriffen. Und hier gibt es sicher noch was zu verbessern.

Wer mir jetzt allerdings nachweist, mit dem Lesen und/oder Schreiben vieler kleiner Dateien eine Datenrate von 500 MB/s hinzubekommen, dem stimme ich zu, daß wir unbedingt SATA 12GB/s brauchen...! :lol:
 
Wolfsrabe, die Transferraten bei kleinen Zugriffen werden aber leider künftig ehr schlechter werden, zumindest sofern man keine neue Technik wie Cache oder eine andere Verteilung der Daten über die NANDs einsetzt. Denn die Pagesize werden im schrumpfenden Fertigungsstrukturen weiterhin zunehmen und die Latenz ebenfalls. Von daher werden SSD künftig ehr bessere seq. Transferraten und vielleicht noch mehr IOPS bei hohen Queue Depth (die Normaluser sowieso nicht erreichen) bieten, aber die reine 4k Leistung dürfte ehr abnehmen.
 
Zurück
Oben