News Samsung-SSDs: 4 TB für 850 Evo und 850 Pro ab dem Sommer

Herdware schrieb:
Wenn dadurch die 2TB-Modelle noch günstiger werden, ist es mir recht. :)
4TB sind mir auf absehbare Zeit dann doch etwas reichlich viel für eine SSD.

Ach quatsch :D in 4 Jahren billig für ein NAS System
 
Man bekommt dann also entweder viel Platz und SATA mit der 850 Pro, oder schnell, aber maximal 1TB und theoretisch thermische Probleme mit der 950 Pro.

Irgendwie wird es Zeit für eine "1050 Pro U.2", im 2,5" Gehäuse, aber dafür mit U.2-Anschluss und bitte Kühlpads im Gehäuse wegen der hohen Geschwidigkeiten.

Wahlweise können sie auch eine "1050 Pro PICe" anbieten, die dann ähnlich der Plextor-SSD M.2 im PCIe-Steckplatz ab Werk bietet, dann gleich mit zwei M.2-Modulen und natürlich einem Kühlblech.

Ach ja, und in der nächsten Mainboard-Generation dürfen die Hersteller dann SATA Express ersatzlos streichen und dafür U.2-Anschlüsse auf breiter Front einführen.
 
Mittlerweile gibts Gehäuse, die 2,5-Zoll-Einschübe für die kleinen SSDs bieten oder man nimmt Adapter. Eine 3,5"-SSD habe ich nur in Anfangszeiten gesehen, dürfte mittlerweile nur noch gebraucht zu finden sein.

Außerdem sind selbst die 2,5"-Gehäuse der SSDs z.T. nur halbvoll, wozu ein 3,5"-Gehäuse, das mehr Material braucht, die Transportkosten erhöht (Verpackung, Packdichte im Container usw. usf.) und nicht mehr in Laptops passt?
 
@11Marcel55
Schau dir mal den physischen Platzbedarf der Elektronik Im inneren der 850 serie an. Da ist noch ne Menge Luft gewesen.

@ 05chb

Im übrigen habe ich in meinem Desktop Rechner eine Notebook HDD verbaut.
In der Tat ist in meinem “neuen“ die 2,5“ Festplatte das lauteste.
Laut diversen Tests sind aber 3,5“ Festplatten aber alle samt noch lauter.

Überlege mir eine externe zuzulegen. 2 od. 3,5 “ das ist jetzt die Frage
 
Ap2000 schrieb:
Von Samsung würde ich zwar nie mehr was kaufen, aber das zeigt, dass SSDs im Konsumentenmarkt viel schneller an Größe zunehmen, als viele gedacht haben.

In so ziemlich jedem technischen Gerät das du kaufst ist etwas von Samsung drin.
 
Ab Sommer erst? Uff...hätte deutlich früher damit gerechnet, eher gegen Ende Q1. Vermutlich vertickt man die ersten Chargen der Chips wohl mal bei den Enterprise SSDs.
 
estros schrieb:
In Kombination?^^ Ja schon klar. Darum Firmware-Fix. Es lag nicht am NAND.

Der Firmware "Fix" (eher Workaround) schreibt im Hintergrund alle Daten in bestimmten Abständen nochmal neu auf die Speicherzellen, damit sie erhalten bleiben.
Also, woran liegt es? ;-)
 
@r4yn3
Jau, da habe ich auch eher mit gerechnet.

Marcel55 schrieb:
Warum kommt eigentlich niemand auf die Idee eine Sata-SSD im 3,5"-Format anzubieten?
Mehr Platz dürfte günstigere Herstellung bedeuten.
Schau mal in so ein SSD-Gehäuse rein. :D
DSC06202.JPG
links das PCB für 128 und 256 GB. Rechts das Board für 512GB.

3-630.571898271.jpg
Die 1 und 2TB Boards sind schon etwas größer.


Die Größe der SSDs ist seit Ewigkeiten nicht mehr limitierend. Mittlerweile bekommt man in einem Package 16 Dies, mit momentan je 128 GBit, unter. Macht also 256GB pro Package. 16 packages bekommt man auf ein 2,5" PCB locker unter. Und schon sind wir bei 4TB.
Da die kommenden NAND-Chips schon eine Kapazität von 256 GBit haben, würden auch 8TB reinpassen.
Limitieren tuen da die Controller, welche den ganzen Kram ja verwalten müssen. Und natürlich der Geldbeutel des Kunden. Für 8TB im Consumersegment gibts keinen Markt.

Und bevor man dann auf 3,5" geht, wird auf 2,5" mit 15mm Bauhöhe gesetzt, wie oftmals im Enterprisebereich vorzufinden. Da bekommt man dann 2 PCBs rein und somit doppelt so viele Speicherchips.


estros schrieb:
In Kombination?^^ Ja schon klar. Darum Firmware-Fix. Es lag nicht am NAND. Darum sollte man es berichtigen.
Nur weil es mit einer Firmware gelöst werden kann, ist es noch lange kein Firmwarefehler gewesen. Man kann auch Hardwarefehler durch eine Firmware beheben, bzw. die Folgen beseitigen.
Soweit mir bekannt gibts es rein gar keine Aussage woran es liegt. Keine Ahnung woher du dein Wissen beziehst um dich so weit aus dem Fenster zu lehnen.
 
Zuletzt bearbeitet:
Schön zu sehen das es weiter geht.
Ich bin mit meiner Evo 500gb Super zufrieden, hoffe die Preise falles 2016 schneller.
 
Decius schrieb:
In so ziemlich jedem technischen Gerät das du kaufst ist etwas von Samsung drin.

Mag sein, dass ihre Technologie auch nur durch Patente verbreitet ist, aber ich versuche sie trotzdem zu meiden.
 
2 der 4TB SSDs würd ich gern in meinem NAS haben statt der 22x 4TB HDD.
Dieses warten, bis ie HDD hochgefahren ist nervt bzw. wäre auch das NAS endlich lautlos.
 
boncha schrieb:
Gibt es eigentlich verlässliche Langzeittests zur Zuverlässigkeit von SSDs als Datengrab?
Ich habe gehört, SSDs sollen sich nicht wirklich zur langen Speicherung von Daten eignen.
Ist da was dran?

Neulich war Micron bei uns im Haus.
Eines der größten Probleme bei NAND ist anscheinend, dass bei höheren Temperaturen der NAND seine Daten verliert. Und höher sind schon ab 50 Grad.
 
Nixdorf schrieb:
Ach ja, und in der nächsten Mainboard-Generation dürfen die Hersteller dann SATA Express ersatzlos streichen und dafür U.2-Anschlüsse auf breiter Front einführen.

Geht wahrscheinlich genau so zügig wie mit den RS-232-, IEEE-1284-, VGA- und PS/2-Anschlüssen...
 
roterhund07 schrieb:
les dir das da mal durch

Das hat nichts mit der Frage zu tun. Die bezog sich auf die Langzeitarchivierung und nicht auf das dauerhafte Beschreiben. Bei Festplatten gibt es eine Reihe von Problemen, die deren Tauglichkeit für die Langzeitarchivierung problematisch machen:

  • Die Anschlüsse werden nach einigen Jahren nicht mehr unterstützt. Vor SATA gab es IDE, und davor MFM/RLL. Wer noch richtig alte Festplatten hat, der kann sie unter Umständen gar nicht mehr anschließen. Dieses Problem hat sich mit SATA verringert und dürfte inzwischen eher sekundär sein. Das gilt auch für SATA-SSDs.
  • Bei falscher Lagerung kann sich im Inneren des Plattengehäuses Feuchtigkeit bilden und kondensieren. Es gibt optische Datenträger und Magnetbänder, die hierfür sehr viel weniger anfällig sind. Bei SSDs dürfte dies Problem geringer sein als bei Festplatten, es ist aber nicht völlig auszuschließen.
  • Ein Nachteil von SSDs gegenüber HDDs ist, dass man nach einem Ausfall sehr viel schlechtere Möglichkeiten zur Datenrettung hat als bei Festplatten. Die magnetischen Platter kann man bei einem Labor ggf. für sehr viel Geld mit teurer Hardware noch auslesen, aber bei den NAND-Flash-Bausteinen hätte man selbst dann wegen des Wear-Levellings und der dadurch verstreuten Speicherung selbst danach schlechte Chancen.
  • Zuguterletzt kann die Magnetisierung bei langer Lagerung degradieren. Die Elementarmagneten verlieren nach und nach ihre Ausrichtung. Daher ist es bei der Nutzung von Festplatten als Archivmedium üblich, sie alle paar Jahre auf neue Platten umzukopieren und dann die Quellfestplatte neu zu beschreiben. Bei NAND-Flash gibt es ein ähnliches Problem, denn auch hier wandern Ladungsträger aus den Zellen. Diese Schwankungen haben zu den Performance-Problemen mit dem 2D-TLC-Flash bei Samsung geführt. Hieraus kann man ableiten, dass die Lagerfähigkeit maßgeblich von der Menge an Ladungsträgern pro Bit sowie der Neigung zu deren Verlust abhängt. Die Faustregel ist SLC >> MLC >> TLC. Bei SLC-Flash kann man von sehr langen Lagerzeiten ausgehen, 2D-TLC sollte man hingegen niemals als Archivmedium nutzen. Die Werte sehen bei 3D-MLC/TLC-Flash deutlich besser aus, da hier die einzelnen Zellen wieder größer sind. Echte Langzeiterfahrungen gibt es hingegen aber schlicht noch gar nicht, denn dazu ist die Techologie immer noch zu jung.

wayne_757 schrieb:
Neulich war Micron bei uns im Haus.
Eines der größten Probleme bei NAND ist anscheinend, dass bei höheren Temperaturen der NAND seine Daten verliert. Und höher sind schon ab 50 Grad.

Ja, das spielt auch noch mit rein.
Ergänzung ()

smalM schrieb:
Geht wahrscheinlich genau so zügig wie mit den RS-232-, IEEE-1284-, VGA- und PS/2-Anschlüssen...

Hey, diese Anschlüsse wurden wenigstens von irgendwas benutzt. Im Gegenteil, sie wurden sogar für sehr viel benutzt. Bei SATA Express gibt es genau ein Testgehäuse von ASUS, dass nur der Evaluierung durch OEMs diente, sowie diesen komischen USB-Frontpanel-Adapter von ASRock, der von dort die PCIe-Lane abgreift und einem dafür ohne Not zwei SATA-Ports klaut.
 
Zuletzt bearbeitet:
smalM schrieb:
Geht wahrscheinlich genau so zügig wie mit den RS-232-, IEEE-1284-, VGA- und PS/2-Anschlüssen...

Wird zügiger gehen, denn im Gegensatz für die von dir genannten Anschlüsse, gibt oder gab es niemals erwerbare Hardware für Sata Express. War halt eine Totgeburt.
 
Dann kann man sich wenigstens mal eine 1 TB / 2 TB für nen vernünftigen Preis holen :D
 
Nixdorf schrieb:
Das hat nichts mit der Frage zu tun. Die bezog sich auf die Langzeitarchivierung und nicht auf das dauerhafte Beschreiben. Bei Festplatten gibt es eine Reihe von Problemen, die deren Tauglichkeit für die Langzeitarchivierung problematisch machen:

  • Die Anschlüsse werden nach einigen Jahren nicht mehr unterstützt. Vor SATA gab es IDE, und davor MFM/RLL. Wer noch richtig alte Festplatten hat, der kann sie unter Umständen gar nicht mehr anschließen. Dieses Problem hat sich mit SATA verringert und dürfte inzwischen eher sekundär sein. Das gilt auch für SATA-SSDs.
  • Bei falscher Lagerung kann sich im Inneren des Plattengehäuses Feuchtigkeit bilden und kondensieren. Es gibt optische Datenträger und Magnetbänder, die hierfür sehr viel weniger anfällig sind. Bei SSDs dürfte dies Problem geringer sein als bei Festplatten, es ist aber nicht völlig auszuschließen.
  • Ein Nachteil von SSDs gegenüber HDDs ist, dass man nach einem Ausfall sehr viel schlechtere Möglichkeiten zur Datenrettung hat als bei Festplatten. Die magnetischen Platter kann man bei einem Labor ggf. für sehr viel Geld mit teurer Hardware noch auslesen, aber bei den NAND-Flash-Bausteinen hätte man selbst dann wegen des Wear-Levellings und der dadurch verstreuten Speicherung selbst danach schlechte Chancen.
  • Zuguterletzt kann die Magnetisierung bei langer Lagerung degradieren. Die Elementarmagneten verlieren nach und nach ihre Ausrichtung. Daher ist es bei der Nutzung von Festplatten als Archivmedium üblich, sie alle paar Jahre auf neue Platten umzukopieren und dann die Quellfestplatte neu zu beschreiben. Bei NAND-Flash gibt es ein ähnliches Problem, denn auch hier wandern Ladungsträger aus den Zellen. Diese Schwankungen haben zu den Performance-Problemen mit dem 2D-TLC-Flash bei Samsung geführt. Hieraus kann man ableiten, dass die Lagerfähigkeit maßgeblich von der Menge an Ladungsträgern pro Bit sowie der Neigung zu deren Verlust abhängt. Die Faustregel ist SLC >> MLC >> TLC. Bei SLC-Flash kann man von sehr langen Lagerzeiten ausgehen, 2D-TLC sollte man hingegen niemals als Archivmedium nutzen. Die Werte sehen bei 3D-MLC/TLC-Flash deutlich besser aus, da hier die einzelnen Zellen wieder größer sind. Echte Langzeiterfahrungen gibt es hingegen aber schlicht noch gar nicht, denn dazu ist die Techologie immer noch zu jung.

Die frage ist. Von welchen Zeiträumen reden wir. Mehr als ein Menschenalter?
Ich denke es reicht ja wenn einen die Daten überleben. :-)
 
wayne_757 schrieb:
Neulich war Micron bei uns im Haus.
Eines der größten Probleme bei NAND ist anscheinend, dass bei höheren Temperaturen der NAND seine Daten verliert. Und höher sind schon ab 50 Grad.

sehr schön am Beispiel der 950 Pro zu sehen. Die allg. Hitzeentwicklungsproblematik in der Halbleiterbranche ist nun auch ein SSD Problem.

ich sehe es schon kommen.

die modding Szene klebt auf die Chips Kühlkörper drauf. Der nächste fügt nen Propeller hinzu und dann kommen die Stickstoff news :evillol:


@ bensen

mir fehlt hier ein "gefällt mir" button.
 
Zuletzt bearbeitet:
jetzt die 2tb variante für 300 euro und ich hau sämtliche mechanischen platter raus ...
 
Zurück
Oben