Warum haben SSDs nur so wenig Speicherkapazität? Es wäre doch ein Vielfaches möglich!

M.B.H.

Commander
Registriert
Dez. 2006
Beiträge
2.222
Hallo!

Ich habe mal bisschen überlegt:
Die einzelnen Speicher werden heute in 20 nm Technologie gefertigt, aber nur eine Schicht. Warum?
Warum kann man nicht einfach viele Schichten übereinander packen? sagen wir mal ein 1 cm hoher Chip, dann würden 1.000.000 Schichten übereinander passen, und zack, hätte man nicht nur SSDs mit 1 TB sondern das eine-Million-Fache.

Wo ist das Problem?

Also ok, müssen ja jetzt nicht eine Million Schichten sein, vllt für den Anfang nur 1.000.

Und in naher Zukunft wird es sich von 20 auf 5-7 nm reduzieren, dann kommt noch mal ein Faktor X drauf um die die Kapazität steigen würde.

Machen die das extra? Um so viel Kohle wie möglich zu machen?
 
SSDs haben nicht aufgrund ihrer Größe eine geringe Speicherkapazität. mSATA-SSDs gibt es mit 1 TByte Kapazität, die sind nicht größer als ein Kaugummi. In ein 2,5"-Gehäuse bekommst du also auch so schon enorm viel Speicherplatz. Das Problem ist allerdings der Preis. Es ist nicht schwer, eine SSD mit 50 Terabyte zu fertigen. Schwer wirds erst, wenn du einen Kunden für ein 150.000 Euro teures Laufwerk finden willst ;) .
 
Stellen wir uns einfach mal vor wir wollen SSDs bauen... okay, neben nen paar Freunden und nem Kasten Bier brauchen wir noch ein bisschen "Sinnvolles" Zeug... einen Reinraum z.b.
Denn ein Staubkorn alleine Reicht aus um X Speicherzellen im Waffer zu "töten"... du kannst dir also Vorstellen, das die Produktion alleine schon Teuer ist wenn ein Haar oder ein Staubkorn dir quasi dein Produkt (wenn auch nur einen Teil des Wafers) zerstört...
Dazu kommen dann entsprechende Forschungsabteilungen um die Produktionsgröße (aktuell <20nm) zu "erforschen" (btw. viel weniger wirds bald net mehr Gehen, mit der Aktuellen Technik ist bei Silizium wohl bei ~7-9nm schluss!(Wenn ich das grad noch richtig in erinnerung hab)
Das kostet alles GELD... und wer muss das Bezahlen? Genau, der Kunde ;-)

Ach und bezüglich "Stapeln"... ist geplant... aber steckt noch in der Forschung bzw. Vorserienproduktion wenn ich das auch noch richtig weiß... da gibts nämlicha uch ein paar Probleme zu lösen ;-)

Ach und bevor ich es Vergesse... dazu kommen dann noch Entwicklungskosten für z.b. passende Controller... ect.

Edit: Und sooo einfach ist´s auch nicht Speicherchips "einfach" übereinander zu "kleben"... das ganze muss entsprechend angesteuert werden um aus dem "Würfel" dann noch Daten zu finden und dort Daten zu hinterlegen...

Edit2: Um nochmal einige "aktuelle" Probleme zu verdeutlichen... Halbleiter werden i.d.R: durch ein Lithographie verfahren hergestellt, dh. die müssen belichtet werden... wenn die Strukturbreite weiter sinkt, dann ist die Wellenlänge des Lichts größer als die Strukturbreite (in Etwa so als würdest du versuchen mit nem Stechbeite von 2CM Breite eine 1CM Breite Furche in ein Stück Holz hauen wollen...)
 
Zuletzt bearbeitet:
Lies dir mal ein paar Artikel über Mikroprozessorfertigung durch, dann dürfte dir schnel klarwerden, das das nicht funktioniert, wie du dir das vorstellst.
"Machen die das extra? Um so viel Kohle wie möglich zu machen?" Was für ein Humbug, ausserdem passen riesige Datenmengen auf heutige SSDs.
 
Die Hitzeentwicklung muss man hier auch bedenken; Feinere Fertigungsprozesse erhöhen zwar die Effizienz, aber da geht immer etwas Energie durch Wärme verloren. Stapelst du mehrere Chips wirds zu heiß. Da verlieren die Materialien im Chip gewisse wichtige Eigenschaften..
 
Die Pringles Technik (Stapelchips) ist noch relativ neu (=teuer) aber wird mit Sicherheit zumindest bei Speicherzellen eine große Rollen spielen.
Mit 3D-Chips sollen sogar Geschwindigkeiten von DRAM erreicht werden (Festplatte = Arbeitsspeicher), ich glaube IBM oder Micron macht da was in der Richtung
 
Warum haben die nicht schon vor 20 Jahren 4TB Platten für 300 DM auf den Markt gebracht?
 
Na ja, ganz so extrem einfältig ist die Frage auch wieder nicht, auch wenn einige hier so tun. Man muss ja nicht gleich einen Allspark bauen, aber auch bei herkömmlichen Festplatten werden ja mehrere Platter übereinander verbaut. Die Probleme wurden ja bereits erwähnt.
 
hmm okey.. danke für eure antworten, sichtweisen, fakten!
jetzt bin ich schlauer :)
 
M.B.H. schrieb:
werden heute in 20 nm Technologie gefertigt, aber nur eine Schicht.
Nein, es ist nicht pro Schicht, es ist die Größe der Strukturen auf der Schicht und dabei sind die eigentlichen Speicherzellen nicht einmal 20nmx20nm sondern meist viel größer, mindestens 40nmx40nm. Die Dicke der Chips selbst ist noch viel größer, das ist wie bei einer CD, da sind die einzelnen Bit auch viel, viel kleiner als die Stärke der CD.

Zur Zeit ist übrigens das Limit 16 Dies in einem Chip, vor kurzem bekam man maximal 8 Dies in ein Gehäuse. Mehrere Schichten in einem Chip sind nicht einfach, Samsung macht mit dem 3d-V-NAND schon so etwas, aber das ist nicht sehr einfach und man bekommt auch nicht einfach so die doppelte Kapazität, so wie man auch nicht einfach die doppelte Datenmenge in zwei Lagen übereinander auf die Scheibe packen kann.
 
Ist nicht das Problem auch, dass die Controller nur so und so viele Kanäle haben, und somit die Anzahl der anzusprechenden Chips eben begrenzt ist?
Das heißt, man kann nicht einfach ein 3,5" Gehäuse nehmen und es mit NAND vollpacken, weil es für so viele Chips eben zur Zeit keine vernünftigen Controller gibt, wenn ich das richtig verstanden habe.

P.S. ich denke nicht, dass bei dem derzeitig recht hart umkämpften SSD Markt irgendwelche Innovationen zurückgehalten werden. Wenn ein Hersteller in der Lage wäre, ein 2, 3, 4 TB Laufwerk zu vernünftigen Consumerpreisen auf den Markt zu bringen, dann würden sie das tun.
 
Das kommt noch hinzu, aber man könnte ja entweder Controller mir mehr Kanälen bauen, der in der Micron P320h hat 32 Kanäle oder einen SAS/SATA RAID Controller und mehrere SSD Controller verwenden, wie es viele PCIe SSD machen.

Das Problem warum es keine größeren SSD als 1TB für Consumer gibt, ist einfach der Preis. Bei 1TB sind ja so 400 bis 500€ fällig und davon machen die Kosten für das NAND nun wirklich das allermeiste aus, eine doppelt so große SSD würde auch doppelt so viel kosten müssen bzw. noch mehr, weil die Aktuellen SSD Controller eben in der Regel 8 Kanäle haben und maximal 8 Dies pro Kanal unterstützen. Die meisten NANDs haben 64Gigabit Diesize, also 8GiB und damit gehen eben 512GiB NAND. Die m500 und die 840 Evo haben NANDs mit 128Gigabit Diesize und deshalb sind das auch die einzigen bezahlbaren normalen Consumer SSD im 2.5" (bei der 840 Evo sogar im mSATA) Format mit mehr als 512GB Kapazität. OWC bietet auch eine 960GB 2.5" SSD, aber da ist ein RAID Controller drin.
 
Solange SSD nicht _deutlich_ billiger werden (billiger als HDD) gibt es für große SSD auch einfach gar keinen Markt.

Nimm z.B. 1TB SSD. Gibts ja, aber wer braucht die heut? Server mit Datenbanken - geil, Preis spielt da ja keine Rolle. Aber sonst?

Für den Otto Normaluser lohnt sich eine 1TB SSD hinten und vorne nicht. Der Haupt-Kaufgrund für SSD ist, daß die Kiste schnell bootet und die Programme schnell starten und Firefox & Co flüssig laufen, auch wenn eine Seite auf einmal hunderte Winzdateien aus dem Festplatten-Browsercache geladen haben will.

Dafür ist SSD wirklich super. Aber dazu braucht man kein 1TB, sondern es reichen wenige GB völlig aus. Eine 120GB SSD bootet nun mal nicht langsamer als eine 1TB SSD, und das was man wirklich braucht (Betriebssystem, Programme, drei oder vier Spiele die man gerade nutzt) passen eh locker drauf. Wozu also den vielfachen Preis ausgeben?

Klar braucht man insgesamt viel, viel mehr Speicherplatz. Für die tausend Steam Spiele, die man bei irgendeinem Summer-Winter-Sale gekauft hat und doch nie spielt. Für die Musik-, Film- und XXX-Sammlung. Für die Digitalfotos der letzten 100 Jahre. Aber all diese Sachen liegen auf billigen HDD nun mal genauso gut herum. Ein Film mit 2 Stunden Laufzeit läuft 2 Stunden, egal ob SSD oder HDD dahinter steht. Wenn der dann als BD-Rip 30GB groß ist und soviel Speicher auf SSD belegt, hat man bei einem GB-Preis von 0,50€ allein für diesen Film 15€ bezahlt - da hat man dann aber viel davon.

Wenn ich jemandem erzähle daß mein Rechner eine alte 64GB SSD eingebaut habe (damals hatten die eben das beste P/L, heute sind es 120GB oder 240GB SSDs), werde ich belächelt - weil gibt ja jetzt viel größere!!1 und bessere!!1 - ja na und? Solange der Platz reicht für die Sachen die man schnell haben will, hat eine größere SSD genau gar keinen Vorteil. Weil schnell ist die kleine SSD auch schon.

Ich kaufe gerne eine Petabyte-SSD. Ich freue mich wenns sowas in 10 Jahren mal geben sollte. Aber dazu müsste dann das Terabyte 50 Cent kosten und nicht das Gigabyte. ;) 500€ und mehr für ein Speichermedium ist einfach zuviel Geld.
 
Zuletzt bearbeitet:
@Rumo

Es liegt immer am Anwendungsfall. Eine 64GB SSD würde mir im Notebook nicht reichen. Die 256GB Version war damals unverschämt groß und wird mir heute des Öfteren zu klein.
 
Bei einem Notebook wo die SSD den einzigen Platz für eine Einbau-HDD belegt und keine andere Möglichkeit vorhanden, ist das sicher ein Problem. Aber wenn du von einer Neuanschaffung ausgehst, kommst du doch bevor du dir eine 1TB SSD holst, günstiger weg wenn du ein Notebook nimmst wo neben der 1TB HDD noch ne kleine SSD (msata) irgendwo reingemogelt werden kann...
 
@Rumo

Nicht wirklich. Aktuell könnte ich ~15GB auf eine HDD auslagern, alles andere profitiert durch die geringen Zugriffszeit der SSD. Eine Caching Lösung kommt bei mir aufgrund der Verwendung verschiedener Betriebssysteme nicht in Betracht. Die aktuelle Performance ist mir jeden Cent wert.

Multimedia Dateien befinden sich nicht auf der SSD.
 
Rumo schrieb:
Solange SSD nicht _deutlich_ billiger werden (billiger als HDD) gibt es für große SSD auch einfach gar keinen Markt.

Nimm z.B. 1TB SSD. Gibts ja, aber wer braucht die heut? Server mit Datenbanken - geil, Preis spielt da ja keine Rolle. Aber sonst?

Videoschnitt ist auch ein Anwendungsfall. Auf SSDs zu arbeiten ist schon bei FullHD sehr angenehm, und bei größeren Datenraten oder 4K sogar fast Pflicht. Die Alternative dafür sind nur schnelle RAID Systeme - die haben zwar noch mehr Platz, sind aber auch nicht wirklich günstig.

Aber der Markt dafür ist natürlich ähnlich klein, wie der für professionelle Server.

Ich habe in einem Schnittlaptop eine 500GB Samsung 840 Pro und eine 750GB Festplatte drin - der Unterschied, wenn das Rohmaterial auf SSD oder auf Festplatte liegt, ist wie Tag und Nacht. Man denkt fast, das sei ein ganz anderer Rechner.
Von der SSD kann man ganz locker durchscrubben durch das Material, keine Hänger, keine Pausen. Von der Festplatte geht es auch irgendwie, aber es legt halt immer mal wieder Pausen ein. Macht nicht so richtig Spaß
Und das selbst nur bei 35mbit Material, was eigentlich ziemlich klein ist, und eher CPU/GPU belastend sein sollte.
 
Zuletzt bearbeitet von einem Moderator:
Zuletzt bearbeitet:
Nimm z.B. 1TB SSD. Gibts ja, aber wer braucht die heut? Server mit Datenbanken - geil, Preis spielt da ja keine Rolle. Aber sonst?

Ich hab beruflich mit einer solchen Datenbank zu tun. Da wird aber auch nicht komplett mit SSDs gearbeitet, weil Consumer-SSDs einfach zu schnell sterben und Enterprise-SSDs in der entsprechenden Größe einfach nicht bezahlbar sind.
Wir arbeiten mit einem recht großen SSD-Cache. Mehr als ~250 GB werden da aber auch nicht benötigt. Außerdem spielt auch da der Preis immer eine Rolle ;)
 
Zurück
Oben