News Weitere Miniaturisierung bei Flash-Speicher

yurij schrieb:
kurzfristig wird es eher richtung massiv-mehrlagige (3D) chips gehen, theoretisch wäre hier eine steigerung der speicherkapazität um faktor weit über 1000 möglich. anderen weg sehe ich nicht. vielleicht erlebe ich noch zu meiner lebenszeit eine micro sdxc karte mit einem petabyte ;) dann kann ich hundert millionen bildern von meiner foto kamera speichern oder erdsimulationen von meinem handy durchführen lassen.

Was günstig herzustellen sein wird, findet den Weg auch zu uns.
Bevor wir komplexer werden wird der Anspruch erst mal weider sein, aus wenig möglichst viel zu machen.
Das heutige Dateisystem hat sich einfach ausgebreitet weil wir die Technologie dafür hatten, dem Platz zu schaffen.
Mit leistungsfähiger Hardware werden DAteien wohl später anders behandelt werden müssen.
Wenn wir morgen auf 5 Gigabyte die Information von 100 heutigen Gigabyte unterbringen könneten wären wir schon mal einen Schritt weiter.
Was wir dazu allerdings brauchen werden sind schnelle spziellisierte Einheiten um das in Echtzeit auch schnell genug bearbeiten können.

Trotzdem werde wir 3D angehen müssen.
 
@dgschrei: Danke du schreibst mir fast aus den Leib. Sehe das auch so, besonders was noch HDD angeht. Da hat man letztes Jahr erst heraus gefundene wie überhaupt Daten wieder gelesen werden und schätze mal da man da bestimmt mit besseren Zugriffszeiten und schneller Transferraten rechnen kann in ganz paar Jahren. besonders Laser sollen ja laut Seagate auch in 5 Jahren eingesetzt werden was Tbits in der Sekunde schon zulässt.
 
e-Laurin schrieb:
Licht hat sowohl Wellen- als auch Teilchencharakteristika. Bestimmte Eigenschaften lassen sich nur mit der Wellentheorie oder der Teilchentheorie erklären.

Von daher ist Licht beides: Welle und Teilchen.

Quanten werden übrigens als masselose Wellen beschrieben. Jetzt versuch' sich einer mal das vorzustellen. Mir ist das zu hoch ^^
Musst du mir nicht erzählen. Hab mein Abitur in Physik mit 14 Punkten bestanden. *stolzguck*

Genau das ist ja das Problem. Man kann mit keinem der beiden Modelle alle Eigenschaften von Licht erklären. Deshalb behilft man sich eben, bis eine bessere Erklärung gefunden ist damit, dass man für bestimmte Dinge das Wellenmodell und für den Rest das Teilchenmodell benutzt.

e-Laurin schrieb:
Laut dem Link von KaiZwoDrei funktioniert das bereits.
Ja die haben einen Laserstrahl in ein extrem kaltes Behältnis geschossen und da sich nahe am absoluten Nullpunkt die Teilchen so gut wie nicht mehr bewegen, blieb das Licht eben drin stecken. Aber von absoluter Kontrolle im Nanometerbereich, wo das Photon jetzt stehen bleibt, ist da nichts zu lesen. Das wäre ja dank der Heisenbergschen Unschärferelation auch gar nicht möglich.


e-Laurin schrieb:
Supraleitend bedeutet auch nicht 0 K. Hg0.8Tl0.2Ba2Ca2Cu3O8 (was ein Stoff O.o) wird schon bei 138 K bzw. -135 °C supraleitend. Die Temperatur läßt sich recht einfach erreichen (im Vergleich zu einer Temperatur nahe 0 K).
Ist mir schon klar, dass es auch Supraleiter gibt, die nicht bei 0K liegen müssen. Die sind dann auch einsetzbar. Aber diejenigen die ~0K brauchen, werden nie außerhalb der Forschung eingesetzt werden, weil diese Temperaturen eben viel zu schwierig zu erreichen und zu halten sind.
Und weil du gerade Hochleistungsmagnete ansprichst. Genau dafür werden die Supraleiter im LHC benutzt. Für Magnete mit Feldstärken von 8,6 Tesla.

e-Laurin schrieb:
Nicht so pessimistisch. Das ist alles noch Grundlagenforschung, die nötig ist, um anschließend sinnvolle Dinge damit zu treiben. ;)

Ich bin ja auch nicht pessimistisch, dass wir diese Grenzen überschreiten werden. Meine Sorge ist nur, dass wir die physikalischen Grenzen der Silizium Chips erreichen, lange bevor Ersatztechnologien verfügbar sind. Damit käme die Rechenleistung das erste Mal überhaupt zum Stillstand. Und das bereitet mir Sorgen.
 
dgschrei schrieb:
Das ist doch immer noch viel zu viel. Wenn 32Gbit auf 126mm² passen, dann bräuchte eine 256GB SSD immer noch 8064mm² also über 80cm².

Ja, aber wie hoch sind diese Chips? Angenommen man kann für eine 2,5 Zoll Platte 4 Schichten übereinanderlegen, dann braucht man noch 20 cm² - das ist etwa die Fläche einer Streichholzschachtel!

Selbst 80 cm² ist nicht wirklich viel, das ist gerade mal 0,8% eines Quadratmeters, und damit schon als 1 Schicht in einer 2,5" Platte realisierbar.

Grundsätzlich sollte man sich mal fragen, ob wir weitere derartige Leistungssteigerungen unbedingt so dringend brauchen. Jeder hat mittlerweile 1-2 Terrabyte in seinem Home PC, und wir zocken Spiele mit annähernd fotorealistischer Grafik.
Ich persönlich brauche auch langfristig nicht wirklich mehr Speicherplatz als 1-10 Terrabyte und das kann ich jetzt schon realisieren, also ich bin froh, dass wir schon so weit gekommen sind wie wir heute sind, denn mir reicht das langsam.

Spätestens als die ersten Betriebssysteme 1 GB überschritten haben zeigt mir das eigentlich, dass wir unseren Speicherplatz zum Großteil nur noch verschwenden.
 
Zuletzt bearbeitet:
Ich habe auch einmal auf einer Vorlesung gehört, das in Zukunft Datenspeicher kommen soll, indem wir unsere Daten in Bakterien speichern. Dabei wird die DNS(Desoxyribonukleinsäure) manipuliert und so werden die Daten geschrieben. Meines Wissens nach passt das aber nicht mit unserer Momentanen Speicher- und Rechenart, 1 und 0, zusammen, da wir mit den einzelnen Aminosäuen der DNS(ich glaube es waren 4 verschiedene, simulieren vielleicht später die Level wie bei den Flashspeicher?) und dem Genetisch manipulierten Strang mit einer Kette aus eigentlich 26(?) Aminosäuren viel mehr Variationen haben. Und die Größe ist auch vorteilhaft. Die DNS ist gerade einmal 2nm breit(Durchmesser) und eine Windung der DNS bis zu 5nm oder sogar sehr viel weniger.

Weiterer Vorteil ist die Sicherheit der Daten. Statt diese nach einer Zeit zu verlieren, hat man seine Daten nach Jahren Milliardenfach geclont. All das hat bereits geklappt, nur muss man das jetzt im Großen Umfang für Maschienen machbar machen. Wir wollen neben unser Rechner ja kein Forscher stehen haben der die Daten liest ;)
 
Weiterer Vorteil ist die Sicherheit der Daten. Statt diese nach einer Zeit zu verlieren, hat man seine Daten nach Jahren Milliardenfach geclont.

Ha, wenn die musikindustrie das mit "millionenfach geclont" sieht, werden die bakterien auf schadenersatz verklagt und für illegal erklärt ;) die werden doch nicht zulassen, dass ihr content sich selbst clont und vervielfältigt
 
Naja, wir werden sehen, ob es den Bakteriumspeicher irgendwann einmal gibt :) Ich fände es sehr interessant :)

Und die Musikindustrie ist bis dahin schon pleite dank Internetpiraterie :D

Was ich aber noch nicht verstehe: Die Bakterien brauchen Essen. Soll man dann in ein IT-Fachgeschäft gehen und irgendwelche Tiefgekülten Einzeller kaufen? :lol:

PS: Die Bakterien die verwendet werden sind ganz harmlos ;) Kann ja gern nochmal nachlesen, wie die hießen.
 
@F_GXdx
Da ist nur leider ein fataler Denkfehler drin.ein 2,5 Zoll Platter einer HDD ist um ein vielfaches günstiger als die selbe Fläche hochreines Silizium. Wenn man dann noch 4 Schichten übereinander packt, wird es noch viel teurer. (Von den dank notwendiger Lithographie entstehenden kosten ganz abgesehen.)
Die Größe der SSDs (Rauminhalt) ist relativ egal. Es geht hier um den reinen Materialeinsatz. Klar kann ich ein 2,5 " Gehäuse einer SSD bis auf den letzten mm³ mit Flash Chips zustopfen. Die Frage ist dann aber, ob man sich das leisten kann.
Und dass man nicht mehr Speicher braucht, ist ja wohl auch reines Wunschdenken. Als kleiner Privatmann vielleicht nicht. (Wobei es da auch genügend Datenhamster gibt)
In der Industrie und vor allem im Bereich der Großrechner kann man aber nie genug Speicher haben. Auf die fällt dann auch der Großteil der verkauften Hardware.
Aber so weit muss man ja gar nicht schauen. Es gibt doch im Internet schon genug beispiele an Firmen, die nie genug Speicher haben können.
Bei Google, Youtube, Rapidshare etc sorgt ein größerer Speicher/Laufwerk für eine dramatische Kostenreduktion. Die würden sich auf bezahlbare 10-100TB Platten geradezu stürzen.
 
Sorry deine Argumentation ist echt nicht nachvollziehbar, es geht hier um möglichst kleine Struktur bei Flash Speicher, nicht um günstige Mass Storage Devices. Was hat das mit Google und Rapidshare zu tun? Normale HDDs haben auch mehrere Platter, warum sollten SSDs nicht mehrere Chips/Layer etc. haben.

Der Preis ist auch letztenendes egal, denn es ist immer nur eine Zeitfrage, bis der sinkt. Es geht hier um Leistung, und die stimmt.
 
er hat aber auch recht. siliziumscheiben sind nun mal wirklich teuer, kurz nachdem der herstellungsprozess nicht mehr weiter verfeinert werden kann, wird auch der preisverfall gegen eine kosten mauer lauffen. fabrikanlagen für aktuelle lithografie liegen derzeit bei ca. 5 mlrd. dolla, vor zehn jahren waren es noch 1 mldr. dollar. der nächste schritt mit extreme uv vakuum lithografie dürfte noch deutlich teuerer werden, richtung 10mlrd. pro fab denke ich, während magnetscheiben es quasi zum nulltarif gibt.

aus diesem grund werden HDDs und Flash-Speicher (SSD, Sticks) wohl erstmal friedlich nebeneinander existieren dürfen, und können beide dann je nach anwendung ihre vorteile ausspielen.
 
Zuletzt bearbeitet:
F_GXdx schrieb:
es geht hier um möglichst kleine Struktur bei Flash Speicher, nicht um günstige Mass Storage Devices.
Nein eben nicht. Es geht hier um den Chip mit der kleinsten Fertigungsgröße, der eben durch den dadurch entstandenen niedrigeren Materialaufwand auch gleichzeitig der billigste ist.

Was hat das mit Google und Rapidshare zu tun?
Das muss ich jetzt nicht wirklich erklären oder? Man kann in einen Blade nur so und so viele Lauferke verbauen, dann ist schluss. Wenn man dann aber mehr Speicher benötigt , wie das bei Google,Youtube und Rapidshare welche alle aus Clustern aus hunderten bis tausenden dieser Blades basieren der Fall ist, kann man die Speichermenge nur noch durch weitere Blades erhöhen. Dies erhöht logischerweise die Kosten des laufenden Betriebs dramatisch. (Außerdem kosten die neuen Server ja auch was)Es sei denn, es gibt mittlerweile größere Laufwerke, denn dann kann man einfach z.B. 1000 1TB Platten durch eben so viele 2TB Modelle ersetzen. Die Kosten für den laufenden Betrieb bleiben dann gleich und die neuen Laufwerke sind in aller Regel wesentlich billiger als komplette Blades.

Bei Diensten wie Youtube sind große Festplatten noch einmal besonders interessant, weil besonders beliebte Inhalte dort auf mehreren Servern vorliegen müssen, um die von den Kunden geforderte Bandbreite bereit zu stellen. Ist nun die Speicherkapazität der Laufwerke groß genug, kann man sämtliche der besonders beliebten Videos (z.b. 1M Downloads +) einfach auf jedem Server problemlos bereitstellen.


Normale HDDs haben auch mehrere Platter, warum sollten SSDs nicht mehrere Chips/Layer etc. haben.
Weil eine HDD mit 3 Plattern in der Fertigung je nach Technologie (5400, 7200 etc.) zwischen 40 und 60$ kostet. Wobei der Motor, das Gehäuse und der Controller samt Cache den Großteil des Preises ausmachen und zusätzliche Platter kaum etwas kosten.
Bei einer SSD steigen die Preise im Vergleich zu Speicherkapazität aber nahezu vollständig linear. Soll heißen, eine SSD mit 4x so vielen Chips kostet auch fast 4x so viel.

Der Preis ist auch letztenendes egal, denn es ist immer nur eine Zeitfrage, bis der sinkt. Es geht hier um Leistung, und die stimmt.
Genau das trifft aber leider in absehbarer Zeit nicht mehr zu. Die Preise können nur so lange sinken, wie die Fertigungsgrößen weiter gesenkt werden können. Da die physikalische Grenze irgendwo zwischen 10 und 5 nm sein wird, wird hier dann auch der Preis sich nicht mehr verändern können. Ab da muss mehr Chipfläche verwendet werden und damit steigen die Preise.
Hier mal eine schöne kleine Studie:
http://www.semiconductor.net/article/209191-A_Simulation_Study_of_the_Cost_and_Economics_of_450_mm_Wafers.php

Die kommen zu dem Ergebnis, dass 2012 bei einer Fertigungsgröße von 22nm die Kosten pro 300mm Wafer bei ~9000 Dollar liegen werden. Wenn wir nun von einem vollständigen Shrink dieser neuen Technologie ausgehen, dann ist bei 22nm einer dieser Chips 51mm² groß. Dann passen 5543 dieser Chips, oder 22,17 TB auf einen dieser Wafer.
Das macht dann summa sumarum Fertigungskosten von ungefähr 405$/TB.
Das schlimme: Es ist noch nicht einmal der Yield mit eingerechnet. Für diesen Wert müssen 100% der Chips funktionieren und es dürfte keinen Verschnitt am Wafer geben. Außerdem hat man immer noch nur die Flashchips, aber noch kein PCB, keinen Controller, kein Gehäuse usw.
Selbst jetzt bekomme ich schon eine 1TB Festplatte für ungefähr 60€ wenn ich nur suche. Wenn man davon ausgeht, dass man 2012 durchaus 4TB für 150€ bekommen wird, wird schnell deutlich warum ein auf Siliziumchips basierendes Speichermedium eine verdammt kostspielige Idee ist.
 
Zuletzt bearbeitet:
@dgschrei/yurij: Ihr beiden seit mir sehr syphatisch. den ihr lässt euch nicht blenden von den tollen Nachrichten die uns immer sagen SSD/Flash ist die reine Zukunft. irgendwann wird es HDDs in Zukunft nicht mehr geben ja. Aber bis das soweit ist vergehen locker noch 50 Jahre oder mehr. Den der heutige Flash ist einfach schwierige günstige Herstellerungsproblem mit hohen Ausfallraten bei der Produktion.

Ihr vertretet echt mal die Meinung zwischen Flasspeicher und HDD. Hasse immer die nur auf SSD noch gucken aber sich nicht mit der Grundmaterie auseinander setzen.

HDD müsste auch von der Herstellung Umweltfreundlicher sein.

Wie sieht es überhaupt mit den Ressourcen von Silizium aus? Wie lange kann man das noch in großen immer steigernden Mengen fördern?
 
Fördern kannst du Silizium praktisch endlos. Denn Sand ist praktisch reines Siliziumoxid. Und davon gibts nun wahrlich genug. Wenn du's genau wissen willst, die Erbe besteth zu ungefähr 15% Masseprozent aus Silizium. Bei der Erdrkuste, also dem für uns erreichbaren Teil, sinds sogar 25%
Das Problem bei der Fertigung und damit auch der Grund warum Silizium so teuer ist, ist, dass das hochreine Silizium (99,9999%) extrem schwer und nur unter enormen Energieaufwand herzustellen ist.
Auch gibt es dank der enormen Anfangsinvestitionen, die in diesem Bereich notwendig sind, nur wenige Hersteller dafür. Einer der größten Hersteller von Reinssilizium kommt dabei mit Wacker Chemie interessanterweise aus Deutschland.
Ein weiteres Problem ist, dass die ganzen staatlich subventionierten Solarprojekte Unmengen an hochreinem Silizium verschlingen und diese enorme Nachfrage den Preis für Wafer in die Höhe drückt.
 
Zuletzt bearbeitet:
@ dgschrei
Danke für deine Ausführlichen Rechnungen - so hatte ich das bisher noch gar nicht betrachtet.
Wenn es also bis dahin keine Revolution in der Waferherstellung gibt, sind die Preise für SSDs wohl nach 2012 auf ihrem Tiefpunkt? :)
Ich glaube, ich werde mir trotzdem eine SSD für das System holen, während ich meine alten HDDs als Datengräber nutze :p
Alles SSD wäre auch übertrieben
 
@DrToxic: Ich werde mir auch ab WIN7 eine SSD als Systemplatte aber nur holen, da HDDs leider noch so hohe Zugriffszeiten hat wo man aber auch mit andren Projekten dran arbeiten das zu verbessern wie mehre Leseköpfe (wo sich die Leseköpfe bewegen und keine Platern mehr).

@dgschrei: jo stimtm Sand^^ man man sollte lieder mal goggeln erstmal^^

Zitat von die:
"Einer der größten Hersteller von Reinssilizium kommt dabei mit Wacker Chemie interessanterweise aus Deutschland."

Aus Deutschland kommen wannsinge viel Projekte und Forschung nur leider werden sie selten hier hergestellt.
 
Genauer benötigt man monokristallines Silizium, das in Form gezogen wird. Sieht dann so aus: http://de.wikipedia.org/wiki/Ingot
Danach wird dieser Ignot zu unter 1mm dicken Scheiben gesägt - fertig ist der Rohwafer.
Bevor uns das Silizium ausgeht werden aber eher die zum dotieren benötigten Stoffe knapp, etwa Arsen oder Gallium. Wobei die auch nicht grade selten sind.

Wie in der News geschrieben wird die Kapazität von Flash aber nicht durch Strukturverkleinerung, sondern hauptsächlich durch mehr Level in MLC-Zellen und damit mehr bits/Zelle wachsen.
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
Meiner Meinung nach ist in diesem Sektor der Industrie alles mögich und
ich bezweifle stark , das silizium teuer bleibt der markt ist groß und es gibt wenige anbieter
-> Es wird in Zukunft mehr Siliziumhersteller geben , der Wettbewerb wird stärker und
es werden neue geräte/verfahren entwickelt , die den Preis des Siliziums drücken werden .
 
Da der Preis von Reinstsiliziumwafern schon heute zum allergrößten Teil durch die Energiekosten und die Entwicklungskosten zustande kommt und nicht durch die Rohstoffkoste,wird es praktisch unmöglich sein die Preise zu senken. Die werden eher noch steigen, wenn die Energie nach der Krise wieder teurer wird.
Allerdings ist der Preis für den Wafer auch nicht das Problem. Wenn ich mich richtig erinnere kostet ein 300mm Wafer unter 1000$ (riddi möge mich da berichtigen, wenn ich was falsches erzähle) Die eigentliche Kostenfalle sind die enormen Fertigungskosten für die Chips selbst, die hier den Preis diktieren.
Nicht zu verachten sind da z.B. die Anfangskosten, die ein Einsteigen neuer Mitbewerber schon fast unmöglich machen. Nur als Beispiel, der Bau von Fab 32 von Intel (45nm auf 300mm Wafern) hat 3 Milliarden Dollar verschlungen.
http://www.intel.com/pressroom/archive/releases/20050725corp.htm
 
Zuletzt bearbeitet:
dgschrei schrieb:
Fördern kannst du Silizium praktisch endlos. Denn Sand ist praktisch reines Siliziumoxid. Und davon gibts nun wahrlich genug.
OK, deine letzten Ausführungen sind sehr ausführlich und natürlich auch richtig, aber wie groß letzten Endes der Einfluss mangelnden Konkurrenzdrucks ist, der den Preis der Siliziumwafer hoch hält, kannst auch du nicht sagen.

Haben wir also: Ein praktisch unbegrenztes Element, das stromintensiv in der Herstellung ist. Beides ist aber nicht soooo teuer, warum ich auch glaube, dass die Waferkosten eben doch sinken werden. Natürlich sind die Fabriken und Geräte teuer, aber auch nur, wenn wenige davon abgesetzt werden, wenn die Nachfrage nach Siliziumchips anhaltend hoch ist, werden auch weitere Fabriken gebaut, was zur Folge hat, dass sowohl Fabriken als auch Wafer billiger werden. Sei es mit staatlicher Unterstützung oder als Joint Venture mehrerer Konzerne. Natürlich jetzt in der Kriese ist das momentan schwer.
 
Zurück
Oben