News Hybrid-SSD: ReRAM soll Lebensdauer von NAND-Flash steigern

Nicht erst in 3-4 Jahren.

HP hat bereits angekündigt, dass sie in H1 2013 eine auf Memristor-Technik basierende SSD auf den Markt bringen. Sprich, das ist nur 6 bis 12 Monate entfernt. Natürlich muss man bei neuer Technologie immer davon ausgehen, dass plötzlich auftretende Problem für Verschiebungen sorgen. Allerdings hat HP auch gesagt, dass sie die ReRAM-Schaltkreise ganz einfach auf den bereits existierenden Flash-Produktionsstraßen herstellen können. Nun ja, wir werden sehen.

Ich bin jedenfalls der Meinung, dass wir das Zeug allerspätestens 2014 kaufen können.

Die einzige Frage, die bis jetzt aber unbeantwortet blieb, ist die Frage nach der Datendichte. Um zu Flash konkurrenzfähige Preise erzielen zu können, muss man im Endeffekt auch eine vergleichbare Menge Daten pro Silikonfläche unterbringen können. Sonst haben wir nur eine Neuerfindung von SLC-Flash... deutliche Vorteile gegenüber MLC in allen Bereichen, aber im Endeffekt unverkäuflich weil zu teuer.

Deswegen ist der hier gezeigte Ansatz interessant. Wenn man mit ReRAM gut genug Zugriffe abpuffern kann, dann kann man möglicherweise damit die Nachteile von TLC-Speicher (extrem langsam im Schreiben, geringe Lebensdauer) wirkungsvoll ausgleichen und am Ende trotzdem eine hohe Datendichte zu einem angemessenen Preis bieten.
 
Nyix schrieb:
Nimms nicht böse, aber das ist alles etwas sehr schwammig und nicht der Realität entsprechend. Wer generell einen Server betreibt, der hat auch immer eine Batterie für Stromausfälle verbaut. Ansonsten sollte man die Finger davon lassen.

1.) Der Stromausfall muss nicht unbedingt von extern kommen. Klar das ist sehr häufig der Fall und eine USV wichtig, aber bei weitem nicht immer so. Es kann z.B. auch passieren, dass das Netzteil eingeht. Es werden zwar meistens 2 redundante Netzteile verbaut, aber das ist nicht zu 100% sicher. Es kann auch sein, dass einfach jemand die Platte absteckt. Alle brauchbaren RAID Controller sind Plug and Play kompatibel d.h. man kann jederzeit ohne Neustart Platten dazu und weghängen.

Und keine SSD ist hochgezüchtet. Die Technik ist kein Hexenwerk. Das jetzt hier zu erklären Spreng den Rahmen, dazu brauch man auch einiges an Vorwissen. Aber nur kurz: Der Cache wird meistens hardwareseitig realisiert und man kann auf ihn keinen Einfluß nehmen. Außerdem gehen egal bei welcher SSD oder normalen HDD die Daten verloren sobald die Spannung weg ist. Man brauch bei beiden Systemen eine Mindestspannung zum Schreiben. Und die Daten im Cache gehen eigentlich nicht verloren. Da der Cache schneller arbeitet als die Platte, hat er schon Datenblöcke, die erst noch geschrieben werden sollen. Ohne Cache wären die Daten also auch nicht da, sondern noch irgendwo im RAM und co. (Der RAM ist auch flüchtig)

2.) Wenn die SSDs nicht über das Limit hinaus optimiert wurden, wie kannst du dir dann die enorm hohe Ausfallsrate der letzten Generation auf Grund der Firmware erklären. Da wurde einfach zu viel auf die Performance geschaut und weniger auf die Stabilität.

3.) Dass eine SSD bzw. HDD nicht mehr funktioniert, wenn der Saft weg ist, ist klar. Wenn jedoch bis zu 256MB und mehr flüchtiger Cache verbaut sind, dann darf man die Sicherheit sehr wohl hinterfragen. Das kann nicht mehr rechtzeitig geschrieben werden, wenn dieser voll genutzt wird. Bei ein paar MB ist das vielleicht noch machbar.

4.) Das Problem dabei ist, dass die Reihenfolge nicht mehr garantiert ist. Das Betriebssystem verwaltet das Dateisystem transaktionsbasiert d.h. Daten sind entweder zur Gänze geschrieben oder nicht. Das wird so realisiert, dass zuerst die Daten geschrieben werden und anschließend noch ein Flag, dass die Daten als gültig kennzeichnet. Wenn die Daten bei einem Stromaufall nicht geschrieben werden können, so ist das kein Problem. Dann muss die letzte Transaktion eben wiederholt werden. Das Problem ist, wenn die Daten in unterschiedlicher Reihenfolge geschrieben werden (und das kann innerhalb der SSD leicht passieren), dann sind Daten nur halb geschrieben und im Schlimmsten Fall sind alle Daten weg, wenn das Dateisystem beschädigt ist oder z.B. eine Banktransaktion wird nur halb durchgeführt und das Geld ist bei einem Konto weg, beim anderen aber nicht da. So etwas darf bei kritischen Anwendungen nicht passieren.

Holt schrieb:
Welche SSD nutzt denn den Cache um dort Userdaten abzulegen? Das machen eigentlich nur Enterprise SSDs mit eigener Notstromversorgung (Akku oder Kondensatoren) aber keine normalen Consumer SSDs.

5.) So gut wie alle SSDs der letzten 2 Generationen tun das. Beim Lesen braucht man so gut wie keinen Cache. Da können die Daten direkt an die CPU weitergeleitet werden. Welchen Sinn macht es hier, diese noch zwischenzuspeichern? Die SATA-Anbindung bremst hier nicht wirklich.
Wozu der Cache benötigt wird, ist zum Schreiben der Daten. Die ersten MLC Controller von JMicron haben das nicht getan und waren deshalb bei random writes unendlich langsam, weil sie sich an den Daten verschluckt haben. Weiters ist es für der Performance sehr gut die Daten beim Schreiben im Cache zu halten. Werden z.B. 10MB an Daten geschrieben, werden diese in den Cache gelegt, die Anwendung kann weiter arbeiten und im Hintergrund werden die Daten dann geschrieben. Das ist zwar extrem schnell, aber eben auch gefährlich, da die Daten dann eventuell nur zur Hälfte auf der Platte landen können, wenn irgendetwas passiert.

Wenn Cosumer SSD nicht stabil sind, dann fällt es eigentlich immer sehr schnell auf, wie eben bei Intels 320er, wo mir gleich klar war wozu Intel da Kondensatoren verbaut hat. Andern konnten sie dem Controller wohl nicht mehr IOPS schreibend verpassen und dann ging das voll in die Hose. Jede Wette, die letzte FW nutzt den Cache wieder nur für Verwaltungsdaten.

6.) Wenn Consumer SSDs nicht stabil sind und sich manche Systeme alle paar Wochen einmal aufhängen, dann juckt das keine Sau und im schlimmsten Fall hat man ein paar negative Geizhalsbewertungen. Wenn man eine Ausfallsrate von 2-3% hat, dann ist das auch erträglich.
Wenn das im Serverbereich passiert, so ist das eine riesige Katastrohe und der Hersteller wird in dem Bereich nie wieder irgendetwas verkaufen. Wenn die Datenbank des ERP Systems kleine Konsistenzfehler enthält, die sich mit der Zeit immer weiter ausweiten, bis alles steht, dann ist das das Schlimmste, was einem Admin passieren kann. Da ist der Flugzeugabsturz direkt auf das Rechenzentrum immer noch besser. Da kann man wenigstens noch ein Backup einspielen.
 
Die Zukunft liegt eher bei MRAM oder Racetrack-Speicher.
 
can320 schrieb:
Toll da haben die ein worst-case szenario getestet. Ausgangswert: Write performance 4,2 MB/s? Wie oft kommt das wohl vor?

Bei winzigen Dateien und einem einzelnen NAND Chip? Vielleicht noch ohne Cache? Nicht unrealistisch, eigentlich sogar ein ziemlich hoher Wert.
 
Zuletzt bearbeitet:
5.) So gut wie alle SSDs der letzten 2 Generationen tun das. Beim Lesen braucht man so gut wie keinen Cache. Da können die Daten direkt an die CPU weitergeleitet werden. Welchen Sinn macht es hier, diese noch zwischenzuspeichern? Die SATA-Anbindung bremst hier nicht wirklich.
Wozu der Cache benötigt wird, ist zum Schreiben der Daten. Die ersten MLC Controller von JMicron haben das nicht getan und waren deshalb bei random writes unendlich langsam, weil sie sich an den Daten verschluckt haben. Weiters ist es für der Performance sehr gut die Daten beim Schreiben im Cache zu halten. Werden z.B. 10MB an Daten geschrieben, werden diese in den Cache gelegt, die Anwendung kann weiter arbeiten und im Hintergrund werden die Daten dann geschrieben. Das ist zwar extrem schnell, aber eben auch gefährlich, da die Daten dann eventuell nur zur Hälfte auf der Platte landen können, wenn irgendetwas passiert.

wenn ich ein Bild 10MB zu meinen Bildern abspeichere ist mir egal ob das zusätzlich im Cache liegt oder sonst wo zwischengespeichert wird, hauptsache es verlangsamt nicht den PC.
Wird sich ReRAM in der Praxis bemerkbar machen? Eigentlich reicht Arbeitsspeicher RAM für Zwischenspeichern aus und ist wesentlich schneller^^ oder habe ich was missverstanden?
 
Zuletzt bearbeitet:
aklaa schrieb:
wenn ich ein Bild 10MB zu meinen Bildern abspeichere ist mir egal ob das zusätzlich im Cache liegt oder sonst wo zwischengespeichert wird, hauptsache es verlangsamt nicht den PC.
Wird sich ReRAM in der Praxis bemerkbar machen? Eigentlich reicht Arbeitsspeicher RAM für Zwischenspeichern aus und ist wesentlich schneller^^ oder habe ich was missverstanden?

In dieser Hybrid-SSD wird ReRAM weniger als Cache, sondern eher als eine Art schnellerer "Alternativ-Festplattenspeicher" benutzt. Der Arbeitsspeicher kann nicht die Aufgabe des ReRAMs übernehmen, auch würde ein Caching im RAM nichts an der eigentlichen Aufgabe, dem Speicher/Überschreiben der Daten, ändern, bzw. beschleunigen.

Das ReRAM hier so verbastelt wird, und nicht komplett als alleinige "Festplatten-Technologie", liegt vorrangig am Preis. Irgendwann wird diese Technik, insofern sie nicht gegen andere Konkurrenten verliert, die SSD-Technik ersetzen. Und das wird sich in der Praxis bemerkbar machen. (Unsere Anfordungen an den PC wachsen (asynchron) mit den Möglichkeiten ;))
 
Zuletzt bearbeitet: (Rechtschreibung)
Hey super! Dann haben wir bald 3 Festplattentechnologien:
HDDs mit Mechanik für <0,05€/GB
SSDs mit Flash für <0,50€/GB
SSDs mit ReRaM für <5€/GB

Für Server sicherlich sinnvoll. Für den Privatanwender die nächsten 10 Jahre wohl keine Option.
 
Troz solcher erweiterungen der SSD Hardware währe eine SSD nur als Backupspeicher geeignet aus dem nur daten gelesen werden.

Ansonsten sind gekühlte HDD,s auf lange sicht immer noch die bessere Wahl als Primär arbeitsbereich.

open topic mod an

Also wo bleiben die 3 - 4 TB 2,5 zoll SSD,s mit Massenmarkt preisen von 0,05 €/Gb :evillol:

open topic mod aus
 
Knuddelbearli schrieb:
damit dürfte die weiterhin bei jedem shrink gesenkte Lebensdauer erstmal gut ausgeglichen werden

So ein Mist, wusste ch noch garnicht :(
Und wieso ist das so?
 
beckenrandschwi schrieb:
Hey super! Dann haben wir bald 3 Festplattentechnologien:
HDDs mit Mechanik für <0,05€/GB
SSDs mit Flash für <0,50€/GB
SSDs mit ReRaM für <5€/GB

Für Server sicherlich sinnvoll. Für den Privatanwender die nächsten 10 Jahre wohl keine Option.
gibts alle 3 schon, zumindest mit ReRAM chache von buffalo :)
 
Zurück
Oben