Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsJBOD-Systeme: Seagate Exos 4U100 mit 100 HDDs und 3,2 PByte bei 126 kg
Unternehmen benötigen für den Einsatz von KI sowie neue Vorgaben der Bundesregierung zur Datensouveränität viel mehr Speicherkapazitäten als früher. Um diesen Bedarf abzudecken, bringt Seagate zwei neue JBOD-Systeme für Edge-Storage auf den Markt. Das große Exos 4U100 erlaubt 3,2 Petabyte HDD-Speicher.
@Slashchat in den Bereichen wo sowas eingesetzt wird, sind Backups idR mehrfach vorhanden und aktuell, nicht so wie bei Linus.
Hier geht es um reine Kapazität und Geschwindigkeit, sprich das Arbeitslaufwerk der Nutzer für große / schnelle Netzwerke.
Das Backup findet dann ggf langsamer im Hintergrund statt.
@Slashchat Im professionellen Bereich wird die Redundanz anders sicher gestellt. Entsprechende Kunden werden die Daten oft Geoverteilt haben. Wenn du Zum beispiel ein CDN betreibst hast du die gleichen Daten weltweit an X stellen. Platten sterben, Daten werden synchronisiert...
Auch ist nicht gesagt, dass sie nich im RAID betrieben werden. Die haben hinten 8x SAS und kommt ganz normal an einen Controller mit dem jeweils gewünschten Featureset.
Wie würde das praktisch laufen für den Fall eines Ausfalls?
Also angenommen, die Systeme sind aktiv, auf dem JBOD wird gearbeitet und dann plötzlich fällt eine der 100 Platten aus.
Ich tippe mal, in den allermeisten Fällen kommt Spanning zum Einsatz, um aus den Platten ein einzelnes Volume zu machen. Insofern wäre dann das gesamte Volume plötzlich offline/"korrupt" (oder was immer da der passende Begriff ist)?
Müsste ja immer einer daneben stehen und für den Fall der Fälle ne neue Platte einzuschieben und das Volumen neu zu erzeugen.
@Arboster Wofür nutzt du dein JBOD? Ich hab auch ein SSD-NAS mit zusätzlichem Backup-NAS; auf dem SSD-NAS arbeite ich (Videoschnitt, Scratch usw.), aber selbst das läuft als Raid.
Das Einspielen des Backups kann nur sehr lange dauern und in dieser Zeit kann nicht gearbeitet werden (was je nachdem finanzielle Konsequenzen hat). Sowas lohnt mMn nur für nicht-kritische Anwendungsbereiche, z.B. nicht-gewerblich genutzte Cloudspeicher.
Ich find's generell trotzdem ziemlich bescheuert, da nur eine HDD als Parität u.U. schon einen Totalausfall vermeiden kann, bei gleichzeitig ziemlich geringem Kostenfaktor. Das lohnt sich finanziell wohl nur bei sehr großen Anlagen und bestimmtem Anwendungszweck.
madmax2010 schrieb:
Auch ist nicht gesagt, dass sie nich im RAID betrieben werden.
Werden sie bestimmt. Im professionellen Umfeld macht man m.W. eigentlich quasi jeden Tag einen Scrub der Daten. Mit RAID kann dann automatisiert korrigiert werden. Fällt hier eine Platte in dem Teil aus, wechselt man einfach das komplette Array, ersetzt das defekte Laufwerk und hält das Array für den nächsten Tausch vor, schätze ich.
Wer sich ein paar von den Teilen hinstellt wird eher CEPH oder so drauf laufen lassen. Also nochmal besser skalierfähig als RAID.
Banned schrieb:
Fällt hier eine Platte in dem Teil aus, wechselt man einfach das komplette Array, ersetzt das defekte Laufwerk und hält das Array für den nächsten Tausch vor, schätze ich.
Die Daten werden dann aber nur mit der Geschwindigkeit einer Festplatte gelesen. Hätte man diese Teile im RAID-Verbund, könnte man das Striping entsprechend anpassen.
Hot swappable components: Drives (HDD/SSD), IOM, power supply units (PSU), fans, link expansion modules (LEM)
Cable Management (CMA): No external cable management required
Hätte mich halt auch extremst verwundert wenn das anders wäre. Solche Systeme werden immer so designed, dass man die nicht offline nehmen muss bloß weil es eine kleine Störung gibt.
Den Ein- und Ausbau von dem Teil kann man mit geltenem Arbeitsrecht wohl nur unter Einsatz einer Hebebühne vereinen. Oder wenn man alle HDDs vorher ausbaut um das Gewicht zu halbieren.
Banned schrieb:
Die Daten werden dann aber nur mit der Geschwindigkeit einer Festplatte gelesen.
Naja, bei vielen HDDs hat man in nem RAID-Verbund so viel Geschwindigkeit, dass zumindest das kein wirkliches Argument mehr für ne SSD ist - zumindest im Hosting-Bereich.
Hm, kommt darauf an, was du unter Hosting verstehst. Wir stellen für uns und unsere Gesellschafter die IT Infra bereit, wir haben alleine gut 50-60 SQL Server für die fachspezifischen Systeme, auf denen auch gut was los ist, plus die restlichen 350+- VMs. Da hätten wir keinen Spaß, was Latenz etc. anginge, wenn davon etwas auf HDDs liefe - was früher auch so war, weswegen vor meiner Zeit dann auch auf eine all Flash san gewechselt wurde.
Sind die wirklich fest als JBOD zusammengefasst, oder lassen die sich noch einzeln ansprechen? Wenn ersteres 'meh' wenn zweiteres läuft auch ZFS damit und Ausfallsicherheit ist wählbar.
Damit wäre dann auch das geplante IP, Port und Personenkennziffer speichern für die Provider abgedeckt
Da spielt die Latenz keine Rolle und wenn die Polizei auf die Anfrage zur Datenherausgabe keine zufriedenstellende Antwort bekommt nehmen die gleich die ganze Box mit.
Das Einspielen des Backups kann nur sehr lange dauern und in dieser Zeit kann nicht gearbeitet werden (was je nachdem finanzielle Konsequenzen hat). Sowas lohnt mMn nur für nicht-kritische Anwendungsbereiche, z.B. nicht-gewerblich genutzte Cloudspeicher.
Ich sagte ja extra Arbeitslaufwerk für die User - und es hochverfügbar sein soll, dann werden mind. 2 dieser Teile im Verbund laufen. Wenn ein Platte aussteigt, ist nur noch auf dem anderen Array bis zum Rebuild gearbeitet.
Interessant wäre aber die Konfiguration, wenn das JBOD so konfiuriert ist, das die Daten nicht verteilt liegen, sondern immer komplett auf einen Laufwerk liegen, so das ein defektes Laufwerk eben nicht für einen Komplettausfall sorgt, sondern nur die, die auf dem defekten Laufwerk lagen.
Das würde den Rebulid Aufwand stark reduzieren im Fehlerfall, eine sehr einfache Skalierbarkeit ermöglichen und gleichzeitig auch den Datenverlust im Fehlerfall ansich minimieren. Allerdings würde auch die Maximale Geschwindigkeit für den Datentransfer auf die Transfehrrate des Laufwerks begrenzt. Je nach Anwendungsfall ist aber das ja nicht so das entscheidende dann.