News FuzeDrive SSD: Enmotus gießt SLC-Caching-Software in Hardware

MichaG

Redakteur
Teammitglied
Dabei seit
Juli 2010
Beiträge
9.282

Rickmer

Fleet Admiral
Dabei seit
Sep. 2009
Beiträge
12.960

Beitrag

Admiral
Dabei seit
Nov. 2011
Beiträge
7.999
Schön und gut, aber ich verstehe nicht so ganz, was das jetzt groß bringen soll, besonders in Bezug auf die dadurch angeblich Faktor 25 bessere Haltbarkeit.
Lebensdauer wird bei Flash ja nur durch das Löschen bzw. Schreiben verbraucht und das Lesen ist bei QLC auch nicht wirklich langsam, nur das Schreiben, besonders viel Geschwindigkeit gewinnt man vmtl. also auch nicht.
Damit man wirklich Haltbarkeit gewinnt, müsste ja so viel wie möglich in den SLC-Speicher geschrieben und möglichst wenig im QLC-Speicher geschrieben werden. Wenn man Dateien hat, die häufig geändert werden, funktioniert das sicherlich, aber ansonsten eher nicht.
 

Botcruscher

Commander
Dabei seit
Aug. 2005
Beiträge
2.946
Bei den Klimmzügen die hier nötig sind kann man QLC nur als Mist ansehen. Gleichzeitig ist er so hart an der Grenze, dass zukünftige Sprünge bei der Fertigung noch mehr zum Problem werden. Der theoretische Kostenvorteil ist schon heute nicht beim Endkunden zu finden. Spannend in welche Richtung die Entwicklung nehmen wird.
 

n8mahr

Commander
Dabei seit
Aug. 2006
Beiträge
2.153
Nutze das "in Software" schon ne ganze Weile. Neue SSD mit alter SSD zusammen, ergibt ein großes Laufwerk, ergibt - je nach Szenario - etwas mehr als die mittlere Geschwindigkeit. Das Ausfallrisiko ist doppelt so hoch, aber das ist bei SSDs zum Glück insgesamt sehr gering.
Gutes Konzept, das letztlich aber natürlich über den Preis gemessen wird. Wennn zwei schnelle SSDs billiger sind als ein Fuze-Drive mit gleicher Kapazität, dann ist es gleich etwas weniger attraktiv. (OK, einen Steckplatz spart man ein..)
 

Wattwanderer

Commodore
Dabei seit
Juni 2005
Beiträge
4.946
Ich glaube nicht, dass sich das durchsetzt. Das Konzept gab es ja mit SSHDs, ebenfalls ohne Erfolg.

Die Nutzer sind zu gut darin die Daten auf unterschiedlich schnelle Massenspeicher sinnvoll zu verteilen und gegebenenfalls auch mehr auszugeben als nötig. Windows und ein paar Programme? 500 GB mindestens, wenn der Preis stimmt 1 TB wovon 80 GB belegt werden. Selbst die beste SSD KI kann eine Pandemie nicht vorhersehen und dass ich während der Zeit einen Koller kriege und die Fotos der letzten 10 Jahre die ich mir nie angeschaut habe durchsortieren will.

Als eine Optimierung des ganzen Vorganges wie DRAM Cache oder SLC Cache ja, aber keine Staffelung der Daten auf Massenmedien mit unterschiedlichen Geschwindigkeiten und Preisen.
 

andi_sco

Commodore
Dabei seit
Jan. 2018
Beiträge
5.062

Beitrag

Admiral
Dabei seit
Nov. 2011
Beiträge
7.999
imo kann man die Daten auch ohne Deep Learning völlig ausreichend gut verteilen. Windows auf Lauferk X, Spiele Lauferk Y und daten Laufwerk Z, fertig. Klar kann die Software sicher noch was rausholen, indem sie die Daten feiner verteilt / fragmentiert, aber damit sich das geschwindigkeitsmäßig lohnt, muss man überhaupt erstmal größere Unterschiede in den Lesegeschwindigkeiten haben.
Und das ist hier einfach nicht der Fall.
 

Hayda Ministral

Rear Admiral
Dabei seit
Nov. 2017
Beiträge
5.329
So viele schöne Buzzwords aus der Pressemitteilung des Herstellers....und kein einziges Wort über unterstützte Betriebssysteme....
 

LamaMitHut

Lieutenant
Dabei seit
Nov. 2013
Beiträge
708
Ich denk mal das QLC in 2-3 Generationen so flott sein wird, dass man eh keinen unterschied zu TLC mehr merkt.

Dahin wird wohl eher geforscht, an sowas.
 

Hayda Ministral

Rear Admiral
Dabei seit
Nov. 2017
Beiträge
5.329
Ich bin, wie stets so auch hier, neugierig.
Welcher Teil von "zudem ist Stand Januar ein spezieller NVMe-Treiber nötig" war es im speziellen, der bei Dir den Eindruck von Betriebssystemunabhängigkeit erweckt hat?
 

Sinnfrei

Lieutenant
Dabei seit
Apr. 2015
Beiträge
709
Anstatt sowas mit reinem Software-Frickel als HDD-Cache nutzen zu können sollte man lieber einen kleinen SATA-Controller und SATA-Anschluss auf die M.2-Karte packen, so dass man eine Festplatte direkt anschließen kann, und dann kümmert sich das Ding um alles. So würde das auch mit jedem beliebigen OS funktionieren.
 

Marflowah

Lieutenant
Dabei seit
März 2018
Beiträge
910
Ich denk mal das QLC in 2-3 Generationen so flott sein wird, dass man eh keinen unterschied zu TLC mehr merkt.
Dahin wird wohl eher geforscht, an sowas.
Man kann die physikalisch bzw. technisch-logisch bedingten Einschränkungen nicht irgendwie "wegforschen". Es ist das Prinzip der mehrfachen Zustände, die das diese Einschränkungen versursachen. Für mich ist klar, dass dies auf keinen Fall endlos so weitergehen kann. 32 Zustände, 64 Zustände, 128 Zustände.... mit potenziertem Aufwand für die Fehlerkorrektur und weiter herabgesetzten Schreibzyklen kann es auch nicht so weitergehen.

Deshalb schätze ich, dass das Ende von NAND eher kommt als das der klassischen HDD. Bei der HDD hat die Vervielfachung der Kapazität keine Auswirkungen auf Geschwindigkeit oder Haltbarkeit gehabt, sieht man mal von SMR ab.
 

LamaMitHut

Lieutenant
Dabei seit
Nov. 2013
Beiträge
708
Man kann die physikalisch bzw. technisch-logisch bedingten Einschränkungen nicht irgendwie "wegforschen". Es ist das Prinzip der mehrfachen Zustände, die das diese Einschränkungen versursachen. Für mich ist klar, dass dies auf keinen Fall endlos so weitergehen kann. 32 Zustände, 64 Zustände, 128 Zustände.... mit potenziertem Aufwand für die Fehlerkorrektur und weiter herabgesetzten Schreibzyklen kann es auch nicht so weitergehen.

Deshalb schätze ich, dass das Ende von NAND eher kommt als das der klassischen HDD. Bei der HDD hat die Vervielfachung der Kapazität keine Auswirkungen auf Geschwindigkeit oder Haltbarkeit gehabt, sieht man mal von SMR ab.
Natürlich kann man die Probleme wegforschen, hat man immer schon getan.

Die Controller / Kapazität pro Layer / Anzahl der Layer etc. werden immer weiter verbessert, und den Rest macht pseudo SLC.
 

Beitrag

Admiral
Dabei seit
Nov. 2011
Beiträge
7.999
@Marflowah "wegforschen" nicht, aber optimieren kann man natürlich, so wie immer.
Multi-Level-Zellen sind ja auch nur eine der Möglichkeiten die Speicherdichte zu erhöhen. Die wird man auch nicht stur weiterfahren, der Aufwand steigt exponentiell, also wird sich mit der Zeit ein Sweetspot herausbilden, bei dem man verbleibt. Ansonsten muss man an den Speicherzellen selbst etwas ändern, wie bspw. damals der Schritt von 2D- zu 3D-NAND oder man braucht Verbesserungen bei der Halbleiterfertigung an sich, um die Preise je Kapazität weiter zu drücken. Letzteres wäre natürlich ein Traum, weil es alle ICs betreffen würde.
 
Zuletzt bearbeitet:

Moep89

Rear Admiral
Dabei seit
Jan. 2008
Beiträge
5.182
Hmm, wo ist da jetzt der große Vorteil? QLC ist doch speziell beim Schreiben arschlahm, beim Lesen nicht so sehr. Ergibt ein SLC Bereich für das Lesen so viel Sinn?
Für den Unterschied HDD vs. SSD war so ein Konzept ja noch sinnvoll, aber um den QLC Mist zu kompensieren? Und dazu dann noch ne HDD? Ich möchte nicht wissen wie anfällig das System für Defekte ist. Immerhin werden da die Daten im Hintergrund völlig fragmentiert. Wenn beispielsweise die HDD abschmiert, dann zerpflückt es einem die ganzen Programme, weil deren einzelne Dateien verstreut liegen.
War schon bei Apples Fusion ziemlich nervig den ganzen DAUs zu erklären, dass das Ding nur als Einheit funktioniert und alles weg ist, wenn es Teil davon Probleme macht.
 

yurij

Lieutenant
Dabei seit
Jan. 2008
Beiträge
923
Was wollen sie immer mit maschinellen Lernen? Nutzhäufigkeit lässt sich doch prima mit klassischen statistischen Algorithmen bestimmen. Overengineered?
 
Zuletzt bearbeitet:

Wattwanderer

Commodore
Dabei seit
Juni 2005
Beiträge
4.946
Man kann die physikalisch bzw. technisch-logisch bedingten Einschränkungen nicht irgendwie "wegforschen".
Mit Physik kann man natürlich nicht verhandeln aber ich denke in diesem Fall rennen wir zum Glück nicht gegen die Gesetze der Physik sondern gegen die der Bezahlbarkeit, also etwas das man in der Tat wegoptimieren kann.

Würde man die Zahl der verbauten Flashmodule verdreifachen und etwas an der Latenz drehen, dann wäre QLC mit den Leistungsdaten schon da wo TLC ist. Dadurch würde QLC die angetreten ist, um den Preis zu senken auf einmal teurer als TLC was das Produkt sinnlos macht.

Aktuell scheint Samsung sich damit zufrieden zu geben die Leserate ans SATA Limit zu führen. Gut möglich, dass sie sich auch der Schreibrate annimmt wenn der Wettbewerb sich verschärft. Momentan hat sie ja noch MLC und TLC im Programm die sich offenbar trotz höheren Preisen gut genug verkaufen. Wozu den eigenen Markt kaputtmachen?
 
Top