News JBOD-Systeme: Seagate Exos 4U100 mit 100 HDDs und 3,2 PByte bei 126 kg

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
14.261
Unternehmen benötigen für den Einsatz von KI sowie neue Vorgaben der Bundesregierung zur Datensouveränität viel mehr Speicherkapazitäten als früher. Um diesen Bedarf abzudecken, bringt Seagate zwei neue JBOD-Systeme für Edge-Storage auf den Markt. Das große Exos 4U100 erlaubt 3,2 Petabyte HDD-Speicher.

Zur News: JBOD-Systeme: Seagate Exos 4U100 mit 100 HDDs und 3,2 PByte bei 126 kg
 
  • Gefällt mir
Reaktionen: PietVanOwl, Banned und the_IT_Guy
Endlich Speicher für die Steam Bibliothek :)
 
  • Gefällt mir
Reaktionen: flo.murr, dasBaum_CH, flo36 und 6 andere
was fuer einen sinn macht das ohne raid, das eine platte bei hundert hops geht liegt schon bei einigen prozent
 
@Slashchat in den Bereichen wo sowas eingesetzt wird, sind Backups idR mehrfach vorhanden und aktuell, nicht so wie bei Linus.
Hier geht es um reine Kapazität und Geschwindigkeit, sprich das Arbeitslaufwerk der Nutzer für große / schnelle Netzwerke.
Das Backup findet dann ggf langsamer im Hintergrund statt.
 
  • Gefällt mir
Reaktionen: Weyoun und madmax2010
@Slashchat Im professionellen Bereich wird die Redundanz anders sicher gestellt. Entsprechende Kunden werden die Daten oft Geoverteilt haben. Wenn du Zum beispiel ein CDN betreibst hast du die gleichen Daten weltweit an X stellen. Platten sterben, Daten werden synchronisiert...

Auch ist nicht gesagt, dass sie nich im RAID betrieben werden. Die haben hinten 8x SAS und kommt ganz normal an einen Controller mit dem jeweils gewünschten Featureset.
 
  • Gefällt mir
Reaktionen: Banned
Ich hab ein NAS mit 6x8 TB NVMEs mit JBOD, aber nur, weil ich auch noch ein Backup-NAS (HDDs) und Backups der wichtigen Daten in Cloud und Büro habe.

Dank 10 GBit/s Netzwerk, hält sich das Zurückspiel den Daten in Grenzen.
Aber hier mit 100 Platten JBOD?
 
  • Gefällt mir
Reaktionen: Fusselbart
Wie würde das praktisch laufen für den Fall eines Ausfalls?
Also angenommen, die Systeme sind aktiv, auf dem JBOD wird gearbeitet und dann plötzlich fällt eine der 100 Platten aus.

Ich tippe mal, in den allermeisten Fällen kommt Spanning zum Einsatz, um aus den Platten ein einzelnes Volume zu machen. Insofern wäre dann das gesamte Volume plötzlich offline/"korrupt" (oder was immer da der passende Begriff ist)?

Müsste ja immer einer daneben stehen und für den Fall der Fälle ne neue Platte einzuschieben und das Volumen neu zu erzeugen.

@Arboster Wofür nutzt du dein JBOD? Ich hab auch ein SSD-NAS mit zusätzlichem Backup-NAS; auf dem SSD-NAS arbeite ich (Videoschnitt, Scratch usw.), aber selbst das läuft als Raid.
 
Zuletzt bearbeitet:
@TriceO bei ceph zum beispiel via CRUSH Maps

Wenn RAID sehe ich so etwas meist mit RAID1 oder 5
 
  • Gefällt mir
Reaktionen: 0x8100
Sebbi schrieb:
in den Bereichen wo sowas eingesetzt wird, sind Backups idR mehrfach vorhanden und aktuell,

Das Einspielen des Backups kann nur sehr lange dauern und in dieser Zeit kann nicht gearbeitet werden (was je nachdem finanzielle Konsequenzen hat). Sowas lohnt mMn nur für nicht-kritische Anwendungsbereiche, z.B. nicht-gewerblich genutzte Cloudspeicher.

Ich find's generell trotzdem ziemlich bescheuert, da nur eine HDD als Parität u.U. schon einen Totalausfall vermeiden kann, bei gleichzeitig ziemlich geringem Kostenfaktor. Das lohnt sich finanziell wohl nur bei sehr großen Anlagen und bestimmtem Anwendungszweck.

madmax2010 schrieb:
Auch ist nicht gesagt, dass sie nich im RAID betrieben werden.

Werden sie bestimmt. Im professionellen Umfeld macht man m.W. eigentlich quasi jeden Tag einen Scrub der Daten. Mit RAID kann dann automatisiert korrigiert werden. Fällt hier eine Platte in dem Teil aus, wechselt man einfach das komplette Array, ersetzt das defekte Laufwerk und hält das Array für den nächsten Tausch vor, schätze ich.
 
Zuletzt bearbeitet:
2 Netzteile mit 3.200Watt.. hübsch :)

Falsches Teil
 
Zuletzt bearbeitet:
Slashchat schrieb:
was fuer einen sinn macht das ohne raid, das eine platte bei hundert hops geht liegt schon bei einigen prozent
Bei so vielen HDDs sehe ich eh kein RAID.

Wer sich ein paar von den Teilen hinstellt wird eher CEPH oder so drauf laufen lassen. Also nochmal besser skalierfähig als RAID.

Banned schrieb:
Fällt hier eine Platte in dem Teil aus, wechselt man einfach das komplette Array, ersetzt das defekte Laufwerk und hält das Array für den nächsten Tausch vor, schätze ich.
Das Teil ist doch absichtlich so gebaut, dass es bei laufendem Betrieb geöffnet werden kann um eine HDD auszutauschen...
 
  • Gefällt mir
Reaktionen: Sebbi und Banned
@Rickmer Danke, überlesen.

Ich fand aber den Gedanken schön, dass zwei ITler den 125kg-Koloss wechseln müssen. :D

EDIT:
Rickmer schrieb:
Bei so vielen HDDs sehe ich eh kein RAID.

Die Daten werden dann aber nur mit der Geschwindigkeit einer Festplatte gelesen. Hätte man diese Teile im RAID-Verbund, könnte man das Striping entsprechend anpassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MichaG
Banned schrieb:
Ich fand aber den Gedanken schön, dass zwei ITler den 125kg-Koloss wechseln müssen. :D
Ehrlich gesagt hatte ich nur eine Annahme gemacht :daumen:

Aber in der Dokumentation:
Hot swappable components: Drives (HDD/SSD), IOM, power supply units (PSU), fans, link expansion modules (LEM)
Cable Management (CMA): No external cable management required

Hätte mich halt auch extremst verwundert wenn das anders wäre. Solche Systeme werden immer so designed, dass man die nicht offline nehmen muss bloß weil es eine kleine Störung gibt.

Den Ein- und Ausbau von dem Teil kann man mit geltenem Arbeitsrecht wohl nur unter Einsatz einer Hebebühne vereinen. Oder wenn man alle HDDs vorher ausbaut um das Gewicht zu halbieren.

Banned schrieb:
Die Daten werden dann aber nur mit der Geschwindigkeit einer Festplatte gelesen.
Ist halt eine Frage von was für Daten man hat.

Wenn das riesige Dateien sind die nur sequentiell gelesen werden können ist Ceph tatsächlich vielleicht die falsche Wahl.

Aber dann sollte man vielleicht auch direkt auf SSDs gehen...?
 
Zuletzt bearbeitet:
sowie neue Vorgaben der Bundesregierung zur Datensouveränität viel mehr Speicherkapazitäten als früher
@MichaG
Hast du da weitere Informationen dazu?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Yesman9277
Rickmer schrieb:
Aber dann sollte man vielleicht auch direkt auf SSDs gehen...?

Naja, bei vielen HDDs hat man in nem RAID-Verbund so viel Geschwindigkeit, dass zumindest das kein wirkliches Argument mehr für ne SSD ist - zumindest im Hosting-Bereich.
 
Banned schrieb:
zumindest im Hosting-Bereich
Hm, kommt darauf an, was du unter Hosting verstehst. Wir stellen für uns und unsere Gesellschafter die IT Infra bereit, wir haben alleine gut 50-60 SQL Server für die fachspezifischen Systeme, auf denen auch gut was los ist, plus die restlichen 350+- VMs. Da hätten wir keinen Spaß, was Latenz etc. anginge, wenn davon etwas auf HDDs liefe - was früher auch so war, weswegen vor meiner Zeit dann auch auf eine all Flash san gewechselt wurde.
 
  • Gefällt mir
Reaktionen: Yesman9277
Sind die wirklich fest als JBOD zusammengefasst, oder lassen die sich noch einzeln ansprechen? Wenn ersteres 'meh' wenn zweiteres läuft auch ZFS damit und Ausfallsicherheit ist wählbar.

Damit wäre dann auch das geplante IP, Port und Personenkennziffer speichern für die Provider abgedeckt :D
Da spielt die Latenz keine Rolle und wenn die Polizei auf die Anfrage zur Datenherausgabe keine zufriedenstellende Antwort bekommt nehmen die gleich die ganze Box mit.
 
  • Gefällt mir
Reaktionen: Yesman9277
Banned schrieb:
Kommt drauf an, was du hostest. Jemand wie Netflix wird eher versuchen, einen möglichst großen Teil seines Katalog in RAM gecached zu haben.
 
Banned schrieb:
Das Einspielen des Backups kann nur sehr lange dauern und in dieser Zeit kann nicht gearbeitet werden (was je nachdem finanzielle Konsequenzen hat). Sowas lohnt mMn nur für nicht-kritische Anwendungsbereiche, z.B. nicht-gewerblich genutzte Cloudspeicher.

Ich sagte ja extra Arbeitslaufwerk für die User - und es hochverfügbar sein soll, dann werden mind. 2 dieser Teile im Verbund laufen. Wenn ein Platte aussteigt, ist nur noch auf dem anderen Array bis zum Rebuild gearbeitet.

Interessant wäre aber die Konfiguration, wenn das JBOD so konfiuriert ist, das die Daten nicht verteilt liegen, sondern immer komplett auf einen Laufwerk liegen, so das ein defektes Laufwerk eben nicht für einen Komplettausfall sorgt, sondern nur die, die auf dem defekten Laufwerk lagen.
Das würde den Rebulid Aufwand stark reduzieren im Fehlerfall, eine sehr einfache Skalierbarkeit ermöglichen und gleichzeitig auch den Datenverlust im Fehlerfall ansich minimieren. Allerdings würde auch die Maximale Geschwindigkeit für den Datentransfer auf die Transfehrrate des Laufwerks begrenzt. Je nach Anwendungsfall ist aber das ja nicht so das entscheidende dann.

xammu schrieb:
2 Netzteile mit 3.200Watt.

"Zum System gehört allerdings auch jeweils die Stromversorgung, die aus zwei 1.800-Watt-Netzteilen mit hoher Effizienz (80+ Titanium) besteht. "

woher kommen dir die 3200 W ? und 1800 W ist maximal, da die NTs ja als redundanz ausgelegt sind.
 
Zurück
Oben