News FuzeDrive SSD: Enmotus gießt SLC-Caching-Software in Hardware

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.918
  • Gefällt mir
Reaktionen: aid0nex, Transistor 22, kryzs und 4 andere
  • Gefällt mir
Reaktionen: aid0nex, Mar1u5, cookie_dent und eine weitere Person
Schön und gut, aber ich verstehe nicht so ganz, was das jetzt groß bringen soll, besonders in Bezug auf die dadurch angeblich Faktor 25 bessere Haltbarkeit.
Lebensdauer wird bei Flash ja nur durch das Löschen bzw. Schreiben verbraucht und das Lesen ist bei QLC auch nicht wirklich langsam, nur das Schreiben, besonders viel Geschwindigkeit gewinnt man vmtl. also auch nicht.
Damit man wirklich Haltbarkeit gewinnt, müsste ja so viel wie möglich in den SLC-Speicher geschrieben und möglichst wenig im QLC-Speicher geschrieben werden. Wenn man Dateien hat, die häufig geändert werden, funktioniert das sicherlich, aber ansonsten eher nicht.
 
  • Gefällt mir
Reaktionen: aid0nex, Aslo und Ebrithil
Bei den Klimmzügen die hier nötig sind kann man QLC nur als Mist ansehen. Gleichzeitig ist er so hart an der Grenze, dass zukünftige Sprünge bei der Fertigung noch mehr zum Problem werden. Der theoretische Kostenvorteil ist schon heute nicht beim Endkunden zu finden. Spannend in welche Richtung die Entwicklung nehmen wird.
 
  • Gefällt mir
Reaktionen: aid0nex, 3dfx_Voodoo5, Murasame und 2 andere
Nutze das "in Software" schon ne ganze Weile. Neue SSD mit alter SSD zusammen, ergibt ein großes Laufwerk, ergibt - je nach Szenario - etwas mehr als die mittlere Geschwindigkeit. Das Ausfallrisiko ist doppelt so hoch, aber das ist bei SSDs zum Glück insgesamt sehr gering.
Gutes Konzept, das letztlich aber natürlich über den Preis gemessen wird. Wennn zwei schnelle SSDs billiger sind als ein Fuze-Drive mit gleicher Kapazität, dann ist es gleich etwas weniger attraktiv. (OK, einen Steckplatz spart man ein..)
 
  • Gefällt mir
Reaktionen: aid0nex
Ich glaube nicht, dass sich das durchsetzt. Das Konzept gab es ja mit SSHDs, ebenfalls ohne Erfolg.

Die Nutzer sind zu gut darin die Daten auf unterschiedlich schnelle Massenspeicher sinnvoll zu verteilen und gegebenenfalls auch mehr auszugeben als nötig. Windows und ein paar Programme? 500 GB mindestens, wenn der Preis stimmt 1 TB wovon 80 GB belegt werden. Selbst die beste SSD KI kann eine Pandemie nicht vorhersehen und dass ich während der Zeit einen Koller kriege und die Fotos der letzten 10 Jahre die ich mir nie angeschaut habe durchsortieren will.

Als eine Optimierung des ganzen Vorganges wie DRAM Cache oder SLC Cache ja, aber keine Staffelung der Daten auf Massenmedien mit unterschiedlichen Geschwindigkeiten und Preisen.
 
  • Gefällt mir
Reaktionen: AUTScarab
Rickmer schrieb:
War nur eine Frage der Zeit bis so ein Konzept kommt.
...

Ich nehme mal an, das auch ein Teil auf die Software entfällt, besonders die Anpassung der Firmware.

Ansonsten kann ich das Konzept nachvollziehen. In Verbindung mit einer HDD das SHDD Konzept weiter gedacht, ohne die Beschränkungen dahinter.
 
imo kann man die Daten auch ohne Deep Learning völlig ausreichend gut verteilen. Windows auf Lauferk X, Spiele Lauferk Y und daten Laufwerk Z, fertig. Klar kann die Software sicher noch was rausholen, indem sie die Daten feiner verteilt / fragmentiert, aber damit sich das geschwindigkeitsmäßig lohnt, muss man überhaupt erstmal größere Unterschiede in den Lesegeschwindigkeiten haben.
Und das ist hier einfach nicht der Fall.
 
Ich denk mal das QLC in 2-3 Generationen so flott sein wird, dass man eh keinen unterschied zu TLC mehr merkt.

Dahin wird wohl eher geforscht, an sowas.
 
Hayda Ministral schrieb:
So viele schöne Buzzwords aus der Pressemitteilung des Herstellers....und kein einziges Wort über unterstützte Betriebssysteme....
Wofür auch? Der "Clou" ist die Betriebssystemunabhängigkeit.
 
Anstatt sowas mit reinem Software-Frickel als HDD-Cache nutzen zu können sollte man lieber einen kleinen SATA-Controller und SATA-Anschluss auf die M.2-Karte packen, so dass man eine Festplatte direkt anschließen kann, und dann kümmert sich das Ding um alles. So würde das auch mit jedem beliebigen OS funktionieren.
 
LamaMitHut schrieb:
Ich denk mal das QLC in 2-3 Generationen so flott sein wird, dass man eh keinen unterschied zu TLC mehr merkt.
Dahin wird wohl eher geforscht, an sowas.
Man kann die physikalisch bzw. technisch-logisch bedingten Einschränkungen nicht irgendwie "wegforschen". Es ist das Prinzip der mehrfachen Zustände, die das diese Einschränkungen versursachen. Für mich ist klar, dass dies auf keinen Fall endlos so weitergehen kann. 32 Zustände, 64 Zustände, 128 Zustände.... mit potenziertem Aufwand für die Fehlerkorrektur und weiter herabgesetzten Schreibzyklen kann es auch nicht so weitergehen.

Deshalb schätze ich, dass das Ende von NAND eher kommt als das der klassischen HDD. Bei der HDD hat die Vervielfachung der Kapazität keine Auswirkungen auf Geschwindigkeit oder Haltbarkeit gehabt, sieht man mal von SMR ab.
 
Marflowah schrieb:
Man kann die physikalisch bzw. technisch-logisch bedingten Einschränkungen nicht irgendwie "wegforschen". Es ist das Prinzip der mehrfachen Zustände, die das diese Einschränkungen versursachen. Für mich ist klar, dass dies auf keinen Fall endlos so weitergehen kann. 32 Zustände, 64 Zustände, 128 Zustände.... mit potenziertem Aufwand für die Fehlerkorrektur und weiter herabgesetzten Schreibzyklen kann es auch nicht so weitergehen.

Deshalb schätze ich, dass das Ende von NAND eher kommt als das der klassischen HDD. Bei der HDD hat die Vervielfachung der Kapazität keine Auswirkungen auf Geschwindigkeit oder Haltbarkeit gehabt, sieht man mal von SMR ab.

Natürlich kann man die Probleme wegforschen, hat man immer schon getan.

Die Controller / Kapazität pro Layer / Anzahl der Layer etc. werden immer weiter verbessert, und den Rest macht pseudo SLC.
 
@Marflowah "wegforschen" nicht, aber optimieren kann man natürlich, so wie immer.
Multi-Level-Zellen sind ja auch nur eine der Möglichkeiten die Speicherdichte zu erhöhen. Die wird man auch nicht stur weiterfahren, der Aufwand steigt exponentiell, also wird sich mit der Zeit ein Sweetspot herausbilden, bei dem man verbleibt. Ansonsten muss man an den Speicherzellen selbst etwas ändern, wie bspw. damals der Schritt von 2D- zu 3D-NAND oder man braucht Verbesserungen bei der Halbleiterfertigung an sich, um die Preise je Kapazität weiter zu drücken. Letzteres wäre natürlich ein Traum, weil es alle ICs betreffen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut
Hmm, wo ist da jetzt der große Vorteil? QLC ist doch speziell beim Schreiben arschlahm, beim Lesen nicht so sehr. Ergibt ein SLC Bereich für das Lesen so viel Sinn?
Für den Unterschied HDD vs. SSD war so ein Konzept ja noch sinnvoll, aber um den QLC Mist zu kompensieren? Und dazu dann noch ne HDD? Ich möchte nicht wissen wie anfällig das System für Defekte ist. Immerhin werden da die Daten im Hintergrund völlig fragmentiert. Wenn beispielsweise die HDD abschmiert, dann zerpflückt es einem die ganzen Programme, weil deren einzelne Dateien verstreut liegen.
War schon bei Apples Fusion ziemlich nervig den ganzen DAUs zu erklären, dass das Ding nur als Einheit funktioniert und alles weg ist, wenn es Teil davon Probleme macht.
 
  • Gefällt mir
Reaktionen: Beitrag
Was wollen sie immer mit maschinellen Lernen? Nutzhäufigkeit lässt sich doch prima mit klassischen statistischen Algorithmen bestimmen. Overengineered?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rentex und Aliosy
Marflowah schrieb:
Man kann die physikalisch bzw. technisch-logisch bedingten Einschränkungen nicht irgendwie "wegforschen".

Mit Physik kann man natürlich nicht verhandeln aber ich denke in diesem Fall rennen wir zum Glück nicht gegen die Gesetze der Physik sondern gegen die der Bezahlbarkeit, also etwas das man in der Tat wegoptimieren kann.

Würde man die Zahl der verbauten Flashmodule verdreifachen und etwas an der Latenz drehen, dann wäre QLC mit den Leistungsdaten schon da wo TLC ist. Dadurch würde QLC die angetreten ist, um den Preis zu senken auf einmal teurer als TLC was das Produkt sinnlos macht.

Aktuell scheint Samsung sich damit zufrieden zu geben die Leserate ans SATA Limit zu führen. Gut möglich, dass sie sich auch der Schreibrate annimmt wenn der Wettbewerb sich verschärft. Momentan hat sie ja noch MLC und TLC im Programm die sich offenbar trotz höheren Preisen gut genug verkaufen. Wozu den eigenen Markt kaputtmachen?
 
Zurück
Oben