News Multi Actuator Technology: Autonome Köpfe sollen Festplatten viel schneller machen

Bogeyman schrieb:
Es bringt doch nix. Wer den Platz von HDDs benötigt und mehr Performance der wird nen Raid aufsetzen... Jetzt quasi ein Raid0 in eine Platte zu bauen, erschließt sich mir der Sinn nicht.

Du solltest vielleicht nicht davon ausgehen das jeder so wenig Speicher brauchst wie du selbst, zudem braucht jede Platte einen Platz am Contoller, Strom etc. Ich habe Kunden die mehrere hundert TB Daten verwalten müssen. Da geht natürlich auch nichts ohne RAID, aber schneller darf es dann dennoch gerne sein.
 
Ich denke verbesserte Technik bei HDDs wird durchaus noch gerbraucht.
Der Preisverfall für SSDs ist in den vergangenen zwei Jahren ist fast zum erliegen gekommen. Meine 1TB Samsung SSD kostete vor 1.5 Jahren sogar 30€ weniger.
Wenn es bezahlbar wäre hätte ich meine HDDs schon lange gegen SSDs ausgetauscht.
 
Holt schrieb:
Wegen einem weiteren Actuator doppelte Ausfallwahrscheinlichkeit? Das klingt als wenn die Actuator die einzige Ausfallursache von HDDs wären :freak:

Natürlich doppelte Ausfallwahrscheinlichkeit für Ausfälle des Actuators... Wie hoch die Ausfallwahrscheinlichkeit durch Ausfälle der Köpfe ist, weiß ich nicht. Aber ich weiß, dass sie bei so einer Platte doppelt so hoch ist.
 
Zuletzt bearbeitet:
Limit schrieb:
Für mehrere Köpfe pro Platter dürfte schlicht der Platz nicht reichen. Die Datenrate dürfte aber auch so schon deutlich steigen, insbesondere wenn später jeder Platte seinen eigene Aktor bekommt. Bei der Zugriffszeit würden zwar mehrere Köpfe/Platter auch helfen, aber selbst damit würde eine HDD kaum in den Bereich von SSDs kommen, zumindest nicht lesend.


Das trifft es ziemlich gut.

Eher JBOD
 
Eusterw schrieb:
In der Realität, dürften oft größere Files abgerufen werden (da greifen vermutlich alle 8 Arme gleichzeitig auf die ebenfalls gleichzeitig mit allen 8 Armen geschriebenen Daten zurück), die nicht beschleunigt werden.
Das ist gerade nicht der Fall. Bisher ist es so, dass immer nur ein einziger Kopf lesen/schreiben kann. Das erkennt man auch ganz leicht daran, dass die Geschwindigkeit der Festplatten nicht mit der Zahl der Platter steigt. Würde parallel gelesen/geschrieben, müsste z.B. die Seagate Barracuda Compute mit 8TB (4 Scheiben, 8 Köpfe) doppelt so schnell sein wie die gleiche Platte mit 4TB (2 Scheiben, 4 Köpfe). Für beide gibt aber selbst der Hersteller die gleiche max. Geschwindigkeit an.

Holt schrieb:
Mit der Mehrperformance dürfte man erstmal vor allem auf mehr IOPS abzielen, was für die HDDs im Datacenter ja auch viel wichtiger wäre und ebenso bei Surveillance HDDs an denen möglichst viele Kameras hängen sollen.
Die Hersteller haben da, denke ich, über die Firmware durchaus die Möglichkeit in die eine oder andere Richtung zu entwickeln. Da die Technik aber in erster Linie für die ganz großen Platten interessant ist und diese eben häufiger im Enterprise Umfeld anzutreffen sind, ist ein Fokus auf IOPS, zumindest anfangs, nicht unwahrscheinlich. Ich denke aber, dass selbst dann noch höhere seq. Übertragungsraten zu erwarten sind.

Bogeyman schrieb:
Den Zusammenhang verstehe ich nicht. Ein Mittelständisches Unternehmen wird auf jedenfall auch mit Redundanz arbeiten und ist in gewisserweise auch flexibel, sprich selbst wenn die Platte mal an einem Montag kaputt geht wo soll genau das Problem sein?
Wenn diese Redundanz in einem zweiten Server an einem anderen Standort mit entsprechend schneller Anbindung besteht, dann ist das ein beherrschbares Problem. Wenn diese Redundanz neben dem Backup allerdings einfach nur aus einem RAID besteht, gibt es sehr viel was schief gehen kann, ein Anwenderfehler, Hacker, ein unentdeckter Bitfehler während eines Rebuilds, Wasser-/Überspannungsschaden usw. Selbst bei einem fehlerfreien Rebuild kann die Leistung schon bei einem mittelgroßen Array über Tage beeinträchtigt sein.

Bogeyman schrieb:
Weiterer Punkt, geht der Trend nicht sowieso hin zur Cloud?
Vorausgesetzt einer schnellen Internetanbindung ist das sicherlich eine Option. Es gibt aber auch heute noch viele kleine und mittelständische Unternehmen, die bestenfalls über VDSL oder sgoar nur ADSL angebunden sind.

Bogeyman schrieb:
Wenn ein Pool aufgerüstet wird dann in erster Linie weil die Kapazität nicht mehr reicht und nicht aufgrund von Geschwindigkeit. Geschwindigkeit ist skalierbar über verschiedene Raid Level die man fahren kann.
Geschwindigkeit geht bei RAID immer auf Kosten der Zuverlässigkeit. Ausgleichen kann man das nur durch mehr Redundanz und damit verbundenen Kosten. Will man also mehr Geschwindigkeit ohne Zuverlässigkeit zu opfern hat man die Wahl zwischen mehr Festplatten, schnellere Festplatten oder etwas ganz anderes (z.B. SSDs).

Bogeyman schrieb:
Jap und dadurch erhöhst du das Risiko eines Ausfalls statistisch gesehen. Im Grunde würde ich Speed gegen Zuverlässigkeit traden.
In gewissem Maße ja, allerdings dürfte das Ziel sein deutlich mehr Speed bei minimalen Verlust an Zuverlässigkeit. Das selbe Spiel hat man bei SSDs über Jahre gespielt. Jeder Die-Shrink hat Zuverlässigkeit gekostet und auch der Wechsel auf MLC, TLC und nun bald QLC wird Abstrichen bei der Zuverlässigkeit bezahlt.

Bogeyman schrieb:
Eine Platte mit mehreren Köpfen muss doch in irgendwas merkbar besser sein und viel teurer kann man sie nicht verkaufen weil dann will sie keiner mehr. SSHDs sind doch auch gescheitert, das war schonmal nen Versuch HDDs schneller zu machen und irgendwas zu erschaffen was zwischen HDD und SSD angesiedelt ist.
Ich denke, du siehst das aus dem falschen Blickwinkel. Es geht weniger darum irgendwelche Märkte von den SSDs zurückzugewinnen, der Zug ist längst abgefahren. Es geht vielmehr darum die heutigen HDD-Kunden bei der Stange zu halten und da wäre eine deutliche Erhöhung der Geschwindigkeit von Vorteil.

Bogeyman schrieb:
Ich behaupte mal wenn die Erfolg haben wollen, muss das Endprodukt wirklich spürbar schneller sein, darf aber nicht viel teurer werden.
Das dürfte genau das Ziel sein. Theoretisch ist dadurch ähnlich wie bei einem RAID0 die Verdopplung der IOPS und/oder der seq. Übertragungsrate möglich. Die Kosten für einen zweiten Aktor und ein bisschen mehr Mechanik dürften überschaubar sein.
 
Seit mehr als 60 Jahre werden die HDDs verbundenen Leseköpfen gebaut und erst jetzt kommt man auf die Idee bzw. arbeitet an der Umsetzung, dass die Leseköpfe unabhängig voneinander arbeiten zu lassen?
Mir kann keine weis machen, dass die Problematik mit den Leseköpfen nicht bekannt gewesen ist.
Zumal die Möglichkeit der technischen Umsetzung seit Jahren gegeben ist.

Vor lauter Bäumen den Wald nicht gesehen?
 
Hypocrisy schrieb:
Das habe ich mich schon lange gefragt, warum das nicht je Platter gemacht wird.

Weils teuer ist und man dann sinnigerweise ein Verfahren finden muss, um die Daten möglichst über die Platter zu verteilen (sonst bringt das ja nix wenn man eine 5GB Datei am Stück auf ein Platter schreibt..). Ich persönlich finds ja faszinierend dass da immer noch geforscht wird, ich als Festplattenhersteller würde die Produktion ja auslaufen lassen und eine Speicherfabrik aus dem Boden stampfen und SSDs bauen. Mag ja sein dass sich Platten _noch_ verkaufen, aber wann der große Knick kommt und auch die Cloudbetreiber und Co lieber auf SSD setzen ist doch eigentlich kaum abzuschätzen, da reicht doch schon _eine_ Managemententscheidung der andere hinterherrennen und dir bricht der halbe Markt weg...
Selbst im Privatsektor sehe ich nicht wo Platten noch lange leben sollen, 1 TB SSD kosten inzwischen 250€, da bleibt für Platten echt nicht mehr viel Luft...
Ergänzung ()

neofelis schrieb:
Ich denke verbesserte Technik bei HDDs wird durchaus noch gerbraucht.
Der Preisverfall für SSDs ist in den vergangenen zwei Jahren ist fast zum erliegen gekommen. Meine 1TB Samsung SSD kostete vor 1.5 Jahren sogar 30€ weniger.
Wenn es bezahlbar wäre hätte ich meine HDDs schon lange gegen SSDs ausgetauscht.

Äh ja, weil die Nachfrage so hoch ist und der Speicherausstoß begrenzt. Deshalb sind auch die Rampreise so hoch. Im Endeffekt hat sich die SSD Technik weiterentwickelt und mehr Speicher wird verbaut, der Speicherausstoß ist aber nicht hinterhergekommen.
Ergänzung ()

PRAXED schrieb:
Bei den ganzen Defekten und Problembehafteten SSDs freue ich mich einfach mal. Egal welche HDD & egal wie alt (und wenn sie gluckert wie ein Kleines Sumpfhuhn:D) ich hatte keine Defekte bei HDDs. Ich brauche und will (noch) keine SSD. Bin ja mal gespannt was es bringt.

Ich würde nie wieder was anderes als SSD verbauen. Ich habe noch eine Platte als Datengrab, die ist aber effektiv höchstens einmal im Jahr unter Strom (das ist jetzt nicht übertrieben, ich wüßte spontan gar nicht wann ich die mal benutzt hätte). Defekte und Probleme gabs mal anno dunnemal, als ich vor 2 oder 3 Jahren die erste SSD geholt habe, war der letzte Firmwarefehler auch schon 1 Jahr her(und der betraf einen von 8? Herstellern am Markt). Also ganz ehrlich, heute noch auf einem Rechner mit Platte zu arbeiten könnte ich mir gar nicht vorstellen, so masochistisch bin ich einfach nicht veranlagt....
 
Das man da nicht früher drauf gekommen ist.
Dadurch könnte man auch wieder mehr datenintensivere Anwendungen auf der Platte nutzen.
Die Speicheranforderungen steigen schneller als man sich dafür SSD leisten kann(oder will).:rolleyes:
 
@mambokurt:
1TB für 250€ da hätte ich für meine jüngste Speicheraufstockung über 2000€ hinblättern müssen. Och nö, auch wenn ich die HDD in einigen Bereichen und Geräten verbannt habe, für Kapazität ist die HDD immer noch am Sinnvollsten, gerade auch im Privatbereich.

@Sly123 und andere:
Natürlich ist man da schon früher drauf gekommen, nur scheiterte es bei der Umsetzung und deren Kosten. Aber die Technik und damit auch die Möglichkeiten entwickeln sich weiter.
Ist doch wie mit Hybrid-Autos, Audi hatte auch in den 80ern ein Hybrid, aber Kosten und Nutzen zusätzlich zur unausgereiften Technik haben das Projekt zu Nichte gemacht. Erst mit dem Prius wurde der Erfolg des Hybrids eingeleitet.
 
Bogeyman schrieb:
Es bringt doch nix. Wer den Platz von HDDs benötigt und mehr Performance der wird nen Raid aufsetzen... Jetzt quasi ein Raid0 in eine Platte zu bauen, erschließt sich mir der Sinn nicht.

Ich sehe darin den Kampf einer älteren Technologie, den Zeitpunkt des eigenen Aussterbens zu verzögern. Es mag wahrscheinlich noch einige Jahrzehnte bis dahin dauern, nur geht die Entwicklung bei SSDs viel schneller voran und ihnen gehört einfach die Zukunft. Die Musikkassette hat auch ein paar Jahre gekämpft, bis sie endlich verschwunden war.
 
Naja, wenn der/die Kopf/Köpfe baugleich wäre/n, dann wäre die Ausfallwahrscheinlichkeit vielleicht ca. doppelt so hoch, aber es ist anzunehmen, dass eine einfache Miniaturisierung und Verdoppelung bei der Multi Actuator Technology nicht reichen wird bzw. noch mehr umgebaut werden muss (sonst wäre das vermutlich schon seit Jahren passiert und hätte bei Conner damals wohl auch geglückt/gut genug funktiniert, aber Seagate ist dann doch ein anderes Kaliber und die Technik ist seitdem auch weiter).

Ich finde es in jedem Fall positiv, dass Seagate so innovativ ist :) und vielleicht langt es ja, um sich einen Wettbewerbsvorteil gegenüber der (asiatischen Billig-)Konkurrenz zu sichern, zumal man ja irgendwie kompensieren muss nicht im SSD Markt wie die Konkurrenz aufgestellt zu sein.

Bei mir kommen i.d.R. auch nur noch Seagate und Western Digital zum Einsatz (andere Hersteller nur, wenn es sich nicht vermeiden lässt, in Fertiggeräten also) und ich habe damit stets beste Erfahrungen gemacht.
 
Zuletzt bearbeitet:
Palomino schrieb:
Ich sehe darin den Kampf einer älteren Technologie, den Zeitpunkt des eigenen Aussterbens zu verzögern. Es mag wahrscheinlich noch einige Jahrzehnte bis dahin dauern, nur geht die Entwicklung bei SSDs viel schneller voran und ihnen gehört einfach die Zukunft. Die Musikkassette hat auch ein paar Jahre gekämpft, bis sie endlich verschwunden war.

Nur ist die Kassette immer noch nicht ganz verschwunden, aber der Vergleich hing auch ein bisschen.
Die Entwicklung der SSD geht zwar recht schnell, aber Preislich hat sich da jetzt 1,5 Jahre auch nicht viel bewegt. Und wenn man so die Berichte liest, ist auch nicht zwangsläufig davon auszugehen, dass sie sich in Kürze oder überhaupt nennenswert nach unten bewegen. Über Shrink geht es immer langsamer voran und kostet Haltbarkeit, mehr Layer machen die Produktion auch wieder aufwändiger, sodass die Kosten kaum sinken, mehr Bits pro Zelle kostet Leistung und wird exponentiell Komplexer (QLC muss schon 16 Zustände unterscheiden, der nächste Schritt dann schon 32).

Wenn nicht irgendwo anders eine Revolution passiert, dann wird die SSD wohl die HDD nie ganz verdrängen. Mit NAND-Flash eher nicht zu bewältigen.
 
Selbst, wenn je Platter ein autarker Lese/Schreibkopf eingesetzt würde, so bleibt das Problem mit der steten Datenfragmentierung bestehen. Für Random Access-Zugriffe mag das ja noch funktionieren, aber spätestens beim Lesen und Schreiben von großen Datenmengen bringen multiple Aktuatoren keine Vorteile.

Cya, Mäxl
 
Hypocrisy schrieb:
Das habe ich mich schon lange gefragt, warum das nicht je Platter gemacht wird.

Dass bislang die zahlreichen Schreib/Leseköpfe der Platten nicht *wirklich* zeitgleich genutzt werden ist ein Trauerspiel.
Definitiv sind Festplatten mit nur einem Platter deutlich langsamer von den Zugriffzeiten her, als Platten mit mehr Plattern.
Ich bin daher bisher fest davon ausgegangen, dass die übereinenaderliegenden Spuren auf den Plattern synchronisiert sind und somit gleichzeitig lesbar/schreibbar.
Ich dachte in meiner Naivität tatsächlich, dies würde durch die Low-Levelformatierung erreicht, weil die Leseköpfe auf diese Weise "ihre Spuren" selber in einer Weise anlegen würden, dass sie bei allen Leseköpfen in der selben Spalte, also synchron liegen und nicht jeder Lesekopf eine Lesespur hat, die zu den anderen versetzt ist.
Was für ein Käse.
Wer bitte denkt sich denn diesen Quatsch aus und wieso kann sich so ein Mist 50 Jahre lang halten??!?!?

Diese Technik hätten wir spätestens ab den 00er Jahren gut gebrauchen können.... jetzt ist es viiiiel zu spät... auch mehrere Leseköpfe pro Platter wären sehr hilfreich gewesen und hätten auch die Sicherheit der Daten zusätzlich erhöht.
Natürlich hätte sich die Geschwindigkeit und Zugriffzeit deutlich verbessert... dafür hätten die Köpfe nichtmal autark sein müssen... einfach nur die bereits vorhandenen Leseköpfe *gescheit*=gleichzeitig nutzen wäre schon gut gewesen, anstatt jetzt zusätzliche einzubauen.

Nundenn.... manchmal ganz schön ernüchternd, wenn man nachträglich erfährt, wie steinzeitlich die Technik doch war, noch viel steinzeitlicher, als man es gedacht hätte... grmpf!!
 
Zuletzt bearbeitet:
Holt schrieb:
SSD werden HDDs wohl niemals komplett verdrängen, weil die deren Kosten pro TB wohl niemals erreichen werden.

Sehe ich anders. Vorallem stagnieren die Preise bei HDDs schon lange. 4TB kosten schon ewig dasselbe. Man ist schon ewig bei 25euso/TB. SSDs sind in der selben Zeit deutlich stärker im Preis gefallen.
 
mambokurt schrieb:
... Ich würde nie wieder was anderes als SSD verbauen. Ich habe noch eine Platte als Datengrab ...
Naja, ich müsste noch 6TB an HDDs im PC ersetzen, habe bereits 1.62TB (ca. 600€) an SSDs verbaut. Und eigentlich bräuchte ich schon wieder bald eine Aufstockung.
Die entsprechenden SSDs, ich sach mal 3x2TB, kosten noch 1.800€. Dafür kaufen sich andere einen kompletten Gaming-PC oder fahren zwei Wochen auf Kreuzfahrt. Mir ist das einfach noch zu viel Geld für ein! Hobby.

mambokurt schrieb:
... Defekte und Probleme gabs mal anno dunnemal, als ich vor 2 oder 3 Jahren die erste SSD geholt habe ...
Mein letztes Problem bezüglich SSD war 2011 und durch ein Firmware-Update recht einfach zu lösen.
Diese Anfangsprobleme in punkto Zuverlässigkeit und Einsatz-Komfort sind schon länger ausgestandene "Kinderkrankheiten".

Aber der Preis ist und bleibt der große Wermutstropfen. Egal, ob durch Speichermangel-Kartell-Preise hervorgerufen oder sonst irgendwas anderes.

Edit:
Bogeyman schrieb:
...Vor allem stagnieren die Preise bei HDDs schon lange. 4TB kosten schon ewig dasselbe. ... SSDs sind in der selben Zeit deutlich stärker im Preis gefallen.
Ja und Nö! Meine 1TB Samsung Evo kostete vor 1.5 Jahren 30€ weniger. Da fällt gerade gar nichts mehr im Preis. Selbst, wenn man die Inflation hinzunimmt, wird da nüscht billiger.
 
Zuletzt bearbeitet:
PRAXED schrieb:
Oder wir lassen es einfach. Es ist ja meine Erfahrung.. diese muss nicht auf alle zutreffen;)

Was ist deine Erfahrung?
Das deine uralten HDD's keinen defekte haben?
Hast du diese Platten mit Harddisk Sentinel u.Ä. auf fehlerhafte oder schwebende Sektoren geprüft?
Wie sehen die SMART Werte dieser Oldies aus?
Woher hast du die Kenntnis das SSD unzuverlässig sind, wenn du selber keine besitzt?

Fragen über Fragen ;)

Mir sind über die Jahre drei Platten kaputt gegangen bevor sie zu klein waren. Die SSD laufen wie gesagt ohne Fehler und mit sehr guten SMART Werten.

Ergo steht hier deine Erfahrung meiner Gegenüber. Wobei Du bei SSD gar nicht mitreden kannst...
 
Ich habe mich immer gefragt warum die nicht pro Platter 2 Leseköpfe pro Seite einbauen, also z.B. eine zusätzliche Lesekopf-Einheit auf der gegenüberliegenden Ecke dazubauen.
Damit könnte man von 2 Stellen gleichzeitig lesen (und zwar egal welcher Platter) und würde evtl. sogar bessere Zugriffzeiten hinbekommen weil es ja im worst case nur noch ne halbe Umdrehung bis zum Lesekopf wäre.
 
mambokurt schrieb:
ich als Festplattenhersteller würde die Produktion ja auslaufen lassen und eine Speicherfabrik aus dem Boden stampfen und SSDs bauen.
Die Investitionen die nötig wären, dürften die Möglichkeiten der HDD Hersteller übersteigen, denn so einfach ist das nicht. Die Chinese versuchen einen weiteren Hersteller von NAND aufzubauen, aber mit massiver finanzieller Unterstützung des Staates und wohl auch ohne sich zu sehr um bestehende Patente zu kümmern.

Und warum sollte man eine Produktion auslaufen lassen, wenn man mit den Produkten Geld verdient?
mambokurt schrieb:
Selbst im Privatsektor sehe ich nicht wo Platten noch lange leben sollen, 1 TB SSD kosten inzwischen 250€, da bleibt für Platten echt nicht mehr viel Luft...
Das mag sein, wenn man mit 1TB auskommt, aber es gibt viele die mehr brauchen oder zumindest haben wollen und dann? Da kosten SSDs einfach zu viel und die Performance von HDDs reicht denen in aller Regel auch aus, zumal wenn sie im RAID betrieben werden.

mambokurt schrieb:
Im Endeffekt hat sich die SSD Technik weiterentwickelt und mehr Speicher wird verbaut, der Speicherausstoß ist aber nicht hinterhergekommen.
NAND wird nicht nur für SSDs gebraucht, Smartphones und Tablets dürfte ähnlich viel wenn nicht sogar mehr NAND und auch DRAM aufnehmen als SSDs und PCs. Nicht pro Stück, aber deren Anzahl ist einfach viel höher und die werden auch viel schneller gewechselt, wobei die Komponenten dann in aller Regel entsorgt werden.
mambokurt schrieb:
heute noch auf einem Rechner mit Platte zu arbeiten könnte ich mir gar nicht vorstellen
Eine SSD als Systemlaufwerk ist was anderes als einen SSD only Rechner der einige TB Kapazität haben soll und wenn man die Daten auf einem NAS/Heimserver speichert, dann wird man dort erst recht nicht viele TB nur mit SSDs realisieren.

Palomino schrieb:
nur geht die Entwicklung bei SSDs viel schneller voran und ihnen gehört einfach die Zukunft.
Die Entwicklung ging schnell voran, vor allem was die Preise pro GB betraf, aber dies wird so nicht weitergehen, denn die Möglichkeiten sind da weitgehend ausgeschöpft. Es gibt nur 3 Möglichkeiten die Kosten pro GB dort weiter zu senken.
1.) Shrinks, so hat zuerst die Kosten gesenkt, aber bei 14 bis 16nm waren die Größen und Abstände der Zellen dann einfach grenzwertig gering und man ist nun in die 3. Dimension ausgewichen.
2.) 3D mit mehr Layern, nur kostet jeder Geld weil der weitere Bearbeitungsschritte erfordert und das Risiko erhöht bei einem Fehler den ganzen Wafer zu verlieren, etwa wenn die Positionierung nicht stimmt, man muss ja auch die Strukturen der Layer darunter treffen, weshalb mehr Layer und Shrinks sich gegenseitig beeinflussen und ein Stück weit ausschließen.
3.) Mehr bpc, man hat schon vor Jahren MLC und dann TLC eingeführt, QLC war auch schon mal ein Thema, aber durch die Shrinks wurde es damals wieder verworfen, denn mehr Bits pro Zelle werden umso schwerer je kleiner die Zellen sind. Außerdem gewinnt man damit immer weniger, bei Wechsel von SLC auf MLC hat man die Kapazität pro Zelle verdoppelt, konnte also theoretisch 50% der Fläche einsparen, praktisch etwas weniger weil man mehr ECC und eine aufwendigere Logik im Chip braucht. Bei Wechsel von MLC auf TLC 50% mehr Daten in eine Zelle geschrieben, die theoretische Flächen- und damit Kosteneinsparung war nur noch ein Drittel und wenn man auf 4bpc (QLC) geht, dann werden es nur noch 25% Flächen- und damit Kosteneinsparung sein, die damit maximal möglich sind, wobei die Frage ist wie viel davon am Ende wirklich übrig bleibt, wenn man den Mehraufwand für ECC und bei der Logik abzieht.

Man ist schon weit gekommen und ich sehen nicht welchen großen Trick man noch aus dem Hut zaubern kann um nochmal solche Kostensenkungen zu erzielen wie man sie bis vor einigen Jahren erreicht hatte. Bei HDDs gibt es dagegen z.B. mit HAMR noch Potential für große Sprüngen bei den Kosten pro TB.

Bogeyman schrieb:
Vorallem stagnieren die Preise bei HDDs schon lange. 4TB kosten schon ewig dasselbe.
Das stimmt doch gar nicht! Die ST4000DM000 hat Anfangs (2013) über 150€ gekostet, heute kostet ihr Nachfolger ST4000DM004 ab 93€. Außerdem verschiebt sich der Sweet Spot immer mehr zu hohen Kapazitäten, bei SSDs wie HDDs.
Bogeyman schrieb:
Man ist schon ewig bei 25euso/TB. SSDs sind in der selben Zeit deutlich stärker im Preis gefallen.
Welche 4TB HDD war denn vor 3 oder 4 Jahren für 25€/TB zu haben? Ich habe die ST4000DM000 gewählt, weil die schon eine der billigsten war. Auch der Preis der WD40EZRZ ist von 160€ im August 2015 auf jetzt 103€ gefallen. Einzelne kurze Ausreißer nach unten, die Sonderangebote oder auch Preisfehler (die kommen immer wieder vor, meist wird da ein anderes Produkt vom Händler angeboten) sein dürften, rechne ich gar nicht ein.
 
Zurück
Oben