Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSanDisk Ultra QLC: Bei der 256-TB-SSD wird auf einen SLC-Modus verzichtet
Unter „Ultra QLC“ versteht SanDisk eine neue Reihe von Enterprise-SSDs, bei denen eine möglichst hohe Speicherkapazität im Fokus steht. Heute gibt es aber erst einmal nur weitere Info-Happen zur 256-TB-SSD der Serie SN670 und deren Verfügbarkeit. Dynamische Taktraten und der Verzicht auf einen SLC-Modus gehören dazu.
Ein 128 TB Modell und man hat ausgesorgt. Ein Träumchen. Wann kommen solche Größen oder auch nur 16/32 TB endlich für den Heimserver in bezahlbar (mit SATA bitte)?
Und täglich grüßt das Murmeltier. Wann endlich mal SSDs in 8TB in Bezahlbar oder gar größer für den Consumerbereich…
Als ob die Zeit hier vor 8 Jahren stehen geblieben ist.
@SSD960
Du willst gar nicht glauben wo Leute, die keine Ahnung von der Materie haben aber im Rang über den Technikern stehen, sehr schnell den Rotstift ansetzen
Wenn ich bei ebay schaue gibt's eine SAS SSD aus Litauen, aber da braucht man erstmal einen SAS Controller.
Oder alternativ jede Menge ~900€ aus China, aber mit 19% Einfuhrsteuer sind das dann >1050€.
Weil 8TB halt sündhaft teuer gemacht wird, kauft es kaum einer.
Gib mir modernen QLC, a la SN5000, nen alten PCIe 3.0 Controller und ab in ein M.2/2.5" Format für 400€, dann wird das was mit 8TB und mehr.
Es braucht ja keine High-End-Geschwindigkeiten. Konstant 500-700MB/s reichen ja völlig, wenn die Schreibrate nicht absackt.
Ich hätte mal zulangen sollen, als die Samsung 870 QVO mit 8TB eine Zeitlang nur ~300€ gekostet hat, weil der NAND-Markt völlig übersättigt war wegen zu hoher Produktionskapazitäten
SATA ist tot, selbst im Consumer Bereich. NVMe Platten kosten quasi gleich viel gegenüber SATA Produkte, während man bei den NVMe SSDs mindestens 5 Fache IOPS, Lese und Schreibgeschwindigkeit hat.
Dazu kommt noch, dass keine Firma einen neuen SATA SSD Controller entwickelt für die größeren Chips. Als Firma entwickelt man viel lieber NVMe SSDs, die man an Business Kunden verkaufen kann und am Ende purzelt noch eine kleine Variante für Consumer heraus.
Du wärst überrascht wie häufig es in echten Rechenzentren zu Stromausfällen kommt. Und Ursache ist meistens nicht eine Unterbrechung der Zuleitung -- doch nur dagegen schützt die USV-Anlage eines Rechenzentrums.
Auch schützt eine USV nicht vor jeglichen Stromausfällen: Ein oftmals unterschätztes Risiko sind Hardware-Schäden. D.h. in deinem Server kann ja auch etwas kaputt gehen. Was vielen Leuten nicht klar ist: Man hat zwar einen Server mit zwei Netzteilen, diese sorgen aber ausschließlich für Redundanz auf der Stromschiene. D.h. die Mainboards haben weiterhin nur einen Strom-Anschluss. Hiermit ist dann ein so genanntes Power Distribution Board verbunden, auf welchem dann wieder die zwei Netzteile angeschlossen sind. Dem aufmerksamen Leser wird aber bereits auffallen, dass man hier dann einen Single Point of Failure hat -- solche PDBs können eben auch kaputt gehen und dann geht der Server von der einen auf die andere Sekunde einfach aus.
Die Argumentation von Sandisk erscheint mir aber fragwürdig. Gerade im Enterprise-Segment sind SSDs häufig mit Power Loss Protection (PLP) ausgestattet.
Auf der anderen glaube ich nicht, dass wir bei diesen Größen noch von gängigen DRAM/Cache Lösungen sprechen, wie wir sie bisweilen kennen. Wenn die aus $Gründen also ohne Cache kommen, wie wir ihn bislang kennen und sie sich allgemein etwas anderes haben einfallen lassen, dann macht die Aussage von SanDisk Sinn...