News WD Ultrastar DC HS760: HDD mit bis zu 580 MB/s dank Dual-Actuator-Technik

AlphaKaninchen schrieb:
Also in der Praxis merke ich den Unterscheid kaum
Ja, dank SLC Cache 😀 Danach siehts dann eher so aus:
1675155941027.png


Bei mehreren kleinen Dateien ists dann noch schlimmer. Wenn schon bei einem Steam-Download, die SSD der beschränkende Faktor ist, macht das echt keinen Spaß. Oder wenn man wie ich ständig größere Ordner auf den PC kopiert. Alleine, wenn ich den Inhalt meines Handys mal auf den PC kopiere, sind das ~200GB an Videos die in einem Zug kopiert werden. Und gerade da, sollte es so schnell wie möglich gehen. Das Handy brauch ich😅

Für die meisten reicht ne QLC SSD, aber als Datengrab, wo auch regelmäßig was drauf geschrieben wird, eignet sich nach wie vor eine HDD eher.
 
Mumbira schrieb:
Bei mehreren kleinen Dateien ists dann noch schlimmer
Der Vorteil einer SSD ist ja grade das sie das nicht tut, mal abgesehen davon, dass das von der Quelle abhängt, da diese die Daten liefern muss und insbesondere HDDs bei vielen kleinen Daten konstant suchen müssen. Auf dem Ziel wird einfach hintereinander geschrieben.
Mumbira schrieb:
Danach siehts dann eher so aus:
[IMG]https://www.computerbase.de/forum/attachments/1675155941027-png.1318878/[/IMG]
Laut Cumputerbase Test (4TB Version, 390GB) und meinen eigenen Erfahrungen ehe das 20 fache... Also 200MB/s

Beim lesen gleich schnell wie jede andere SATA SSD.
Edit:
Habe grade mal 500GB RAW Fotos von einer 8TB QVO auf eine SanDisk Extreme Pro Portable, beide über USB... Geschwindigkeit hängt im USB Limit (5GBit/s) (Overhead bedenken)
PXL_20230204_203128154.jpg
 
Zuletzt bearbeitet:
AlphaKaninchen schrieb:
mal abgesehen davon, dass das von der Quelle abhängt
Quelle ist natürlich ne SSD. Crucial P5 um genau zu sein.
AlphaKaninchen schrieb:
Der Vorteil einer SSD ist ja grade das sie das nicht tut
Selbst eine SSD hat es mit einer großen Datei einfacher, als mit vielen kleinen. Bei nvme ist der Unterschied etwas kleiner, aber das gilt auch für HDDs (zugegeben, nvme HDDs sind eine Seltenheit für den Desktop-Markt). Letztendlich kann man genau so gut viele kleine Dateien nach einander auf die Platte reihen, wie eine große. Physikalisch gesehen gibt's da keinen Unterschied beim schreiben. Beim Lesen spielt es halt eine Rolle wie die Daten fragmentiert sind.
AlphaKaninchen schrieb:
Es geht natürlich eher um den schwankenden Graph. Die 7mbs sind nur eine zufällige Momentaufnahme. Kurz 7mbs, dann kurz 200mbs, dann wieder 7mbs. Irgendwo dazwischen liegt dann halt der Durchschnitt. Aber Konstant ist die Geschwindigkeit bei weitem nicht. Für manche Anwendungen also schlicht nicht brauchbar.
Das war übrigens irgendeine neuere Kingston SATA M2.
 
@Mumbira OK, ich würde eine QVO auch nur als Datengrab (oder für Spiele die man selten spielt) empfehlen (aber nur intern um USB Gehäuse bekommt sie nicht genug Strom)

Zu den QLC allgemein:
Das Problem ist einfach das bei "kleinen" SSDs auch weniger Chips vorhanden sind, und das limitiert die Geschwindigkeit, gleiches Probleme wie bei den 128GB MacBooks(auch wenn das TLC nutzt). Daher wenn QVO dann 4TB oder 8TB oder mehr wenn es die denn mal gibt... (QLC fällt das ehe auf da langsamer, bräuchte man mehr Chips für die gleiche Geschwindigkeit aber 16TB gibt es leider nicht)
 
  • Gefällt mir
Reaktionen: joshy337
Mumbira schrieb:
7 Jahre in der Hardwareindustrie sind kaum vorhersehbar
Die Japaner haben in den 80ern einen 20 Jahres Plan verfolgt um den Westen technologisch zu überholen, wenn ich mich nicht irre. Die haben einfach in die Zukunft geplant.😂

Mumbira schrieb:
. Schau mal wo wir vor 7 Jahren waren.
Qualitativ weiter? Da gab es noch MLC und SLC SSDs..😢

Mumbira schrieb:
Aber solange nicht eine Bahnbrechende Erfindung für NAND Speicher kommt, werden SSDs weder billiger, noch schneller.
Gott sei dank! Zellen die Lebensdauer von 5000 Schreibvorgängen haben und 16 Zustände in einer Zelle speichern? Nein, danke. Ich verzichte. Da ist geschenkt noch zu teuer. Wer spart, kauft doppelt.😁

Mumbira schrieb:
QLC ist ja schon kaum nutzbar und wenn dann bald wirklich PLC kommt, aua. So langsam muss was komplett neues her, aber da ist momentan nichts in Aussicht.
Da stimme ich zu.🙂👍

Mumbira schrieb:
Und solange es Rechenzentren gibt, wird die Nachfrage für Speichermedien mit konstanter Geschwindigkeit und hoher Kapazität auch nicht so schnell sinken
In den USA, z.B. bei Microsoft, wird in den Rechenzentren gleichzeitig geheizt und gekühlt, damit die vertraglich vereinbarte Mindest-Strommenge vom Stromanbieter abgenommen ("verbraucht") wird. Rein technisch irgendwie pervers und ökologisch fragwürdig.
 
joshy337 schrieb:
Lebensdauer von 5000 Schreibvorgängen habe
Das ist jeden Tag einmal voll schreiben und Secure Erase für über 12 Jahre...

Eine 8TB HDD mit 550TB Workload und 5 Jahren erwarteter Lebensdauer würde das laut Datenblatt kein Jahr machen, die SSD laut Datenblatt aber auch nicht die PBW dort entsprechen ehe 500 bis 1000 Schreibzyclen also 1 bis 2 Jahre
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: joshy337
AlphaKaninchen schrieb:
Das ist jeden Tag einmal voll schreiben und Secure Erase für über 12 Jahre...
"Glaube keiner Statistik, die du nicht selbst gefälsch hast."

In der Praxis habe ich schon ein paar SDDs gehabt, die totgeschrieben wurden.
Eine SSD fiel bereits nach einem halben Jahr im 24/7 Betrieb aus.

Man muss ggf. auch berücksichtigen, dass Flash blockweise gelöscht wird, wenn sich Daten ändern. Da sitzen dann zwangsweise ein Batzen Zellen im selben Boot..

Der Einsatz bei VMs kann auch zu Problemen führen, schätze ich.
Ich weiß aber nicht, was schlimmer ist.
Festplattendateien mit fester Größe oder mit dynamischer Größe?

Auf mechanischen Festplatten ist eine feste Größe gut, da das Host OS nicht dauernd auf's Neue freien Platz zuordnen muss.
Die Datei ist sozusagen "fest", als ein zusammenhängender Block gespeichert.
So wie unter Windows 3.1x damals (da hat 3.1 den Block direkt auf der Platte angesprochen, ohne DOS/FAT), wo es für die Auslagerungsdatei mehrere Optionen gab.

Die "temporäre Aulagerungsdatei" unter Windows 3.1x entspricht wohl der dynamischen Festplattendatei an ehesten, schätze ich. Das ist einfach eine Datei, die immer fetter wird und das Dateisystem fragmentiert. 🍔
 
  • Gefällt mir
Reaktionen: Purche und AlphaKaninchen
joshy337 schrieb:
Man muss ggf. auch berücksichtigen, dass Flash blockweise gelöscht wird, wenn sich Daten ändern. Da sitzen dann zwangsweise ein Batzen Zellen im selben Boot..
Deshalb gibt es für Datenbanken Optane, Z-NAND und XL-Flash, TLC oder gar QLC sterben da in Wochen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: joshy337
AlphaKaninchen schrieb:
@Markus2 die Frage ist, kann man die pro Arm separat ansteuern oder machen die immer alle das gleiche?

Ich wüsste nicht was verhindern würde mehrere unterschiedlich zu steuern, von der zusätzlichen Elektronik mal abgesehen.
 
steve-sts schrieb:
Warum nicht intern schon das Raid0 und nach außen hin als eine Platte kommuniziert?
weil das einfach klingt, aber nicht ist: Es müßte ja ein Controller (micro-PC mit linux o.ä.) da rein. das wäre unterm strich viel zu teuer. Das Risiko zu inkompatibilitäten oder zusätzlich quelle für Fehler obedrein. Die Idee ist nicht verkehrt.
In der Praxis sind Raidcontroller, beispielsweise fest im Board, ja ohnehin schon ein kleines Risiko, wenn da ein Ausfall ist.
 
AlphaKaninchen schrieb:
Deshalb gibt es für Datenbanken Optane, Z-NAND und XL-Flash, TLC oder gar QLC sterben da in Wochen...
Das ist stark übertrieben. Wir haben 2 noSQL Datenbanken auf TLC SSD Clustern und die leben jetzt nach 4 Jahren immernoch, obwohl die mittlerweile sogar beim Dreifachen der TBW sind. Sind allerdings auch keine Consumer SSDs.

Bei uns werden Schreib- und Löschvorgänge allerdings auch erstmal gepuffert, bis die Blöcke voll sind (wobei sich auch die Blockgröße massiv nach Modell unterscheidet).
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
joshy337 schrieb:
Qualitativ weiter? Da gab es noch MLC und SLC SSDs..😢
Ich sag ja, unvorhersehbar 😂 Hätte damals auch keiner gedacht, dass wir mal den alten Dingern nachtrauern werden.
joshy337 schrieb:
Gott sei dank! Zellen die Lebensdauer von 5000 Schreibvorgängen haben und 16 Zustände in einer Zelle speichern? Nein, danke. Ich verzichte. Da ist geschenkt noch zu teuer. Wer spart, kauft doppelt.😁
+1
 
  • Gefällt mir
Reaktionen: joshy337
Mumbira schrieb:
alten Dingern nachtrauern werden.
Naja ich möchte eigentlich wenn PCIe 4.0 oder 5.0 mit MLC oder SLC haben, nachtrauern tue ich Optane...

Hoffen wir einfach das uns mit HDDs nicht das gleiche passiert, wobei mit SMR in 2,5 Zoll ist das ja eigentlich schon so, CMR ist da quasi ausgestorben.
 
Zuletzt bearbeitet:
PCSpezialist schrieb:
weil das einfach klingt, aber nicht ist: Es müßte ja ein Controller (micro-PC mit linux o.ä.) da rein. das wäre unterm strich viel zu teuer. Das Risiko zu inkompatibilitäten oder zusätzlich quelle für Fehler obedrein. Die Idee ist nicht verkehrt.
In der Praxis sind Raidcontroller, beispielsweise fest im Board, ja ohnehin schon ein kleines Risiko, wenn da ein Ausfall ist.
So aufwändig wäre das gar nicht mal. Auf den HDDs gibts eh schon einen Mikrocontroller - schon immer seit Einführung der IDE-Schnittstelle. Die LBAs müssen z.B. auf die physikalischen Sektoren aufgeteilt werden, defekte Sektoren werden umgemappt, Caches, seit AHCI gibts Warteschlangen etc. pp. Da wäre das Aufteilen auf verschiedene Bereiche ein Klacks. Im Prinzip muss bissle was verdoppelt werden (aber genau das, was auch hier schon verdoppelt wurde), und eine (triviale) Verteilungslogik. Ein guter Anfang wäre die Auswertung des. 12. Bits - dann würde alle 4 KB abgewechselt^^ Das ist genau das, was RAID0 mit 2 HDDs macht. Raid0 und 1 sind allgemein trivial - komplexer wirds erst bei RAID5/6.
 
  • Gefällt mir
Reaktionen: Markus2 und AlphaKaninchen
Markus2 schrieb:
Ich wüsste nicht was verhindern würde mehrere unterschiedlich zu steuern, von der zusätzlichen Elektronik mal abgesehen.
Danke, guter Punkt. Mit einem triple actuator sollte der Spurversatz über Platter nicht so groß sein, dass die das nicht könnten. Aber wie du sagst, das braucht auf jeden Fall die Elektronik und eventuell auch zusätzliche Mechanik. Weil ob die Arme tatsächlich unabhängig voneinander bewegt werden können auf Actuatorebene wo die das ja aktuell gar nicht müssen, ist offen.

Das war aber wie gesagt sowieso der total Praxisferne Zugang (Annahme war da ja leere Platte). Einzig für Archive wo dann die leere Platte sequentiell geschrieben wird kann ich mir das gut vorstellen. Ist halt die Frage was das zusätzlich kosten würde. Könnte man dann aber immerhin eine spezielle x5,6,7-fach Archivplatte verkaufen statt immer nur dieselbe Mechanik mit andere Firmware, die meisten Platten werden ja wohl doch nicht nur so gebraucht und der Vorteil ist schnell mal bei Kosten/Nutzen zunichte gemacht.

Aber der Rest von meiner Aussage gilt ja nach wie vor. Egal ob die einzelnen Aktuatoren mehrere Spuren Unterschied ausgleichen können, es muss dann zusätzliche Elektronik (Mechanik?) verbaut werden die anders als hier nichtmal die doppelte sondern garkeinen Vorteil bringt bei hoher Fragmentierung. Und gerade die Elektronik dazu ist dann schnell sehr komplex, Bsp.: Die Platte würde ein "wear leveling"/SLCcache/SMR-Spur Rückschreiben machen um die Fragmentierung wieder zu lösen - dabei muss aber zusätzlich geachtet werden dass weiterhin Platterübergreifend Teile derselben Datei übereinander liegen um auch die Lesegeschwindigkeit zu halten. Und zusätzlich braucht die HDD eben wie SMR/QLC Platten dann so Pausen an denen die interne Defragmentierung das auflöst.
Wäre aber technisch sicher interessant so eine HDD mal zu sehen, fraglich ist aber wie teuer das wird und wieviel das in der Praxis überhaupt bringt.

EDIT:
AlphaKaninchen schrieb:
Das ist jeden Tag einmal voll schreiben und Secure Erase für über 12 Jahre...
Wobei neben dem blockweisen Schreiben auch bitte nicht vergessen dass ja der SLC Modus selbst schon prinzipbedingt die Zyklen verdoppelt um die Schwächen von QLC zu kompensieren. Außerdem sind 5000 Zyklen für QLC recht hoch gegriffen, garantiert werden da kaum 1000 (bspw. geizhals mal kurz ein Blick garantieren von grob 100 QLCs ~80 weniger als 0,5 DWPD bei eher unter 5 Jahren Garantie und dabei würden selbst 8TB SSDs mit 100MB/s durchgehend einen DWPD schaffen). Und nicht zuletzt sind auch bei QLCs durchaus einzelne Blöcke öfters beschrieben weil sich gerade dort was ändert. Das wird mit wear-leveling natürlich kompensiert, die Platte an sich ist natürlich nicht schnell hin aber einzelne Blöcke können da schon recht schnell aufgeben.

Also da bin ich auch nach wie vor einfach dafür dass man QLC bei den ganzen Nachteilen in Haltbarkeit und Geschwindigkeit links liegen lassen sollte. Wenn die derzeit im TB-Bereich ~45 zu grob ~50 kosten als Bestpreise ist das einfach zu wenig für die Nachteile.
Besonders wenn ich mir eine größere SSD kaufe, kann ich die ja heutzutage noch lange weiterwenden. 2,4 oder überhaupt 8TB brauch ich ja nicht so schnell gegen eine größere austauschen mehr, da rentiert sich eine bessere Haltbarkeit auf jeden Fall. Und die schnellere SSD über viele Jahre nimmt man dann als Vorteil auch noch mit
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
SOWJETBÄR schrieb:
Außerdem sind 5000 Zyklen für QLC recht hoch gegriffen
Ich habe mit dem gerechnet was er geschrieben hat mein Kenntnisstand ist circa 500 bei den Consumer Modellen
Ergänzung ()

SOWJETBÄR schrieb:
Wenn die derzeit im TB-Bereich ~45 zu grob ~50 kosten als Bestpreise ist das einfach zu wenig für die Nachteile.
Als ich meine QVO gekauft habe hat die 700€ gekostet, eine Sabrent (NVMe, bin mir aber nicht sicher ob QLC oder TLC) 1500€, war aber trotzdem ein fehlkauf da sie im USB Gehäuse zu viel Strom zieht beim schreiben und wenn sie denn nicht bekommt verliert sie die Verbindung und Linux mounted sie nur noch als read-only. Da ich eine externe 8TB ohne Netzteil wollte, fehlkauf.

Auch heute ist die Auswahl nicht berauschend, aber die Preise sind besser...
 
Zuletzt bearbeitet:
joshy337 schrieb:
In den USA, z.B. bei Microsoft, wird in den Rechenzentren gleichzeitig geheizt und gekühlt, damit die vertraglich vereinbarte Mindest-Strommenge vom Stromanbieter abgenommen ("verbraucht") wird. Rein technisch irgendwie pervers und ökologisch fragwürdig.
Das ist doch Schwurbel-Quatsch! Als ob man den Stromanbieter nicht auch bezahlen könnte ohne den Strom zu verschwenden.
 
-THOR- schrieb:
Mit dem freien Setting kann man zb. auch ein Raid 6 fahren, wenn man nicht ganz die hohe Schreibleistung sondern nur Lesegeschwindigkeit braucht. Sonst halt dann den "Standard" RAID 10 den man hier aber dann schon mit nur 2 physisch belegten Slots realisieren kann.
andr_gin schrieb:
Ich frage mich wie viele hier unbewusst den Fehler machen beim RAID 10 die falschen 2 Platten zu koppeln und die 2 Plattenhälften dann im RAID1 laufen.
man kann bei einem ausfall nicht einfach eine halbe platte austauschen.
also bringt es meiner meinung nach nix, nach außen 2 platten darzustellen, wenn man bei einem defekt sowieso beide gleichzeitig ersetzen muss.
 
Zurück
Oben