Backupstategie planen

sikarr

Admiral
Registriert
Mai 2010
Beiträge
8.121
Hallo,

Ich suche Ideen um unser Backup und Datenablage besser zu händeln, Datensicherheit ist uns sehr wichtig.

Was sind unsere Anforderungen:
  • Datensicherheit
  • eine gewisse Geschwindigkeit
  • Größe

Wir Digitalisieren mit mehreren Scannern: Bücher, Ordner, Pläne usw. hier fallen teils große Mengen an Daten an. Bücher sind der groß, oft mehrere TB / Projekt. Ordner erzeugen viele Dateien oft Millionen aber oft nur 100 GB / Projekt

Aktuell sichern wir von Server -> NAS -> Band. Alles muss und kann aber nicht auf Band und unsere NAS ist mittlerweile mit Dingen die nicht aufs Band müssen voll.
Mein Chef überlegt schon ob es nicht sinnvoll ist z.B. die Bücher in eine Cloud zu verschieben, ich würde sie am liebsten im Haus behalten, auch wenn keine personenbezogenen Daten vorhanden sind. Aber ein NAS alleine reicht hier nicht mehr, da wir die Datensicherheit brauchen.

Wie lösen den andere Ihre Datenablage im Unternehmen?

@ Edit:

Wir haben eine funktionierende Backupstrategie, wir sind jedoch aus dieser als Unternehmen heraus gewachsen.
Natürlich könnten 100.000€ in Storage oder Cloudlösung investieren aber evtl. gibt es ja einen eleganteren Weg der vielleicht nur ein Zentel kosten würde.

Also lasst bitte die Kommentare mit dem Systemhaus, diese sind bereits involviert.
 
Zuletzt bearbeitet:
Frag ein IT-Systemhaus, für sowas eignet sich ein Forum nicht. Ich bin selbst IT Admin und wenn das nicht dein Gebiet ist, dann lasse ich auch die Finger von...
 
  • Gefällt mir
Reaktionen: Novocain, Gnah und EasyRick
sikarr schrieb:
aber oft nur 100 GB / Projekt
Wieviele NEUE Daten pro Monat oder pro Jahr ist wichtig.
Ebenso wie lange ihr den Kram aufheben wollt (ewig?).

Cloud frisst Upload.
Wenn ihr täglich 100GB an Daten habt kannst du Cloud Upload quasi vergessen, außer ihr habt ne direkte Glasfaseranbindung.

Ohne die Datenmenge und weitere Parameter zu kennen kann man dir nicht helfen.
Ebenso musst du bedenken dass gegen bestimmte Vorfälle nur ein Offsite-Backup schützen kann.
 
Quanar schrieb:
Frag ein IT-Systemhaus, für sowas eignet sich ein Forum nicht. Ich bin selbst IT Admin und wenn das nicht dein Gebiet ist, dann lasse ich auch die Finger von...
Siehe weiter unten, es geht um Ideensammlung bzw. Denkanstöße.
 
Zuletzt bearbeitet: (Mein Fehler :))
  • Gefällt mir
Reaktionen: ika2k
Veeam bietet seit dem letzten oder vorletzten Update ein Storage-tiering Richtung Cloud an. Backups/Daten älter als X Tage werden vom lokalen Backup-Speicher zu einem der angebotenen Cloudanbieter geschoben.
Cloud bietet halt 0 Start-Investition und deutlich höhere Verfügbarkeit dafür eben monatliche Kosten. Wenn ihr Projektbezogen arbeitet könnt ihr wunderbar einen S3 Bucket (oder vergleichbares bei anderen Anbietern) pro Projekt anlegen und die Kosten entsprechend verteilen.

Ob Cloud oder ist ist völlig egal. Im besten Fall sind die Daten verschlüsselt. Damit ist es egal ob die Daten in einem/mehreren RZs von AWS/Azure/GCP/Alibaba/Tencent/Rackspace/etc oder bei euch liegen. Bei euch kann genauso eingebrochen und die Daten geklaut werden. Ich behaupte mal gegen physischen Diebstahl ist ein RZ der eben genannten Anbeiter deutlich besser geschützt. Der Rest ist "Augen auf bei der Konfiguration" und entsprechend Verschlüsselung einsetzen.

Ansonsten wende dich mit so etwas an ein darauf spezialisiertes Systemhaus/IT-Dienstleister. Klar könnten wir dir hier auch das Gelbe vom Ei erzählen und was supertolles aufbauen aber wenn damit mal etwas ist bzw. allein der Betrieb, Patches, etc. ist vollkommen in deiner Verantwortung!

@h00bi Bitte nicht nur so nen "Quark" erzählen. Ein VDSL100 Anschluss bietet schon 40 MBit/s Upload, also 5 MByte/s, also 18.000 MByte/Stunde. Selbst wenn man die Hälfte davon für andere Dinge reserviert bleiben 9000 MByte/h oder ~8,78 GByte/h übrig. Runden wir großzügig ab und nehmen 8 GByte/h und damit auf 192 GByte pro Tag die man problemlos hochladen kann und hat noch Uploadbandbreite verfügbar. Wie du siehst kann man problemlos mit einer bezahlbaren Leitung entsprechende Datenmengen ins Netz schaufeln. Zumindest sofern ich keinen Umrechnungsfehler habe, sollte aber passen soweit.
 
Andere nach Rat/Meinung fragen und dann Pampig werden wenn man etwas liest was einem nicht passt?

Meine Güte ...
 
h00bi schrieb:
Wieviele NEUE Daten pro Monat oder pro Jahr ist wichtig.
Pro Projekt, manche gehen über Monate andere nur ein paar Wochen.
h00bi schrieb:
Ebenso wie lange ihr den Kram aufheben wollt (ewig?).
Kommt auf den Kunden drauf an, Sachen die wir löschen können fliegen nach bezahlen der Rechnung runter. Im Schnitt kann man sagen was nicht auf Band landet, ca. 1 Jahr.
h00bi schrieb:
Cloud frisst Upload.
Wenn ihr täglich 100GB an Daten habt kannst du Cloud Upload quasi vergessen, außer ihr habt ne direkte Glasfaseranbindung.
täglich nicht, aber über die einzelne Projektdauer schon. Chef überlegt die Inetanbindung auf 1Gbit zu erhöhen, mein Gegenargument waren die Kosten, ich glaube die Leitung würde uns dann 1500€/Monat kosten. Wenn man das aufs Jahr rechnet könnte man auch in eine lokale Storagelösung investieren. Aber die Zukunftsprognosen werden nicht besser.
h00bi schrieb:
Ohne die Datenmenge und weitere Parameter zu kennen kann man dir nicht helfen.
Ebenso musst du bedenken dass gegen bestimmte Vorfälle nur ein Offsite-Backup schützen kann.
Bsp. Ein Projekt Bücher ging über 2 Monate und hat 5Tb Daten generiert mit 60.000 Dateien. Ein anderes Projekt ist Posteingang einer Versicherung, hier waren nach 2 Jahre 19 Millionen Dateien und 400Gb Daten angefallen.

Wichtige Daten landen noch auf Band, aber auch die Bandkapazitäten sind mittlerweile ausgeschöpft.


Für alle weiteren Teilnehmer, es mir nur um Ideen für eine Lösung, unserer Systemhaus ist natürlich involviert, einen Denkanstoß.
Ergänzung ()

snaxilian schrieb:
Veeam bietet seit dem letzten oder vorletzten Update ein Storage-tiering Richtung Cloud an. Backups/Daten älter als X Tage werden vom lokalen Backup-Speicher zu einem der angebotenen Cloudanbieter geschoben.
Cloud bietet halt 0 Start-Investition und deutlich höhere Verfügbarkeit dafür eben monatliche Kosten. Wenn ihr Projektbezogen arbeitet könnt ihr wunderbar einen S3 Bucket (oder vergleichbares bei anderen Anbietern) pro Projekt anlegen und die Kosten entsprechend verteilen.
Sowas wäre z.b. eine möglich Lösung.
snaxilian schrieb:
Ob Cloud oder ist ist völlig egal. Im besten Fall sind die Daten verschlüsselt. Damit ist es egal ob die Daten in einem/mehreren RZs von AWS/Azure/GCP/Alibaba/Tencent/Rackspace/etc oder bei euch liegen. Bei euch kann genauso eingebrochen und die Daten geklaut werden. Ich behaupte mal gegen physischen Diebstahl ist ein RZ der eben genannten Anbeiter deutlich besser geschützt. Der Rest ist "Augen auf bei der Konfiguration" und entsprechend Verschlüsselung einsetzen.
Wir sind redundat aufgestellt und Serverräume und Backups sind Zutrittsgeschützt bzw. Bänder liegen in einem Brandsicheren Tresor eines anderen Brandabschitts
Flossenheimer schrieb:
Andere nach Rat/Meinung fragen und dann Pampig werden wenn man etwas liest was einem nicht passt?
Ich hatte in der 2. Zeile geschrieben das es mir nur um Ideen geht, die fertige Lösung wird natürlich mit einem Systemhaus erarbeitet. Aber es schadet nicht etwas Quer zu denken, Oder?
 
Zuletzt bearbeitet:
sikarr schrieb:
Ich hatte in der 2. Zeile geschrieben das es mir nur um Ideen geht, die fertige Lösung wird natürlich mit einem Systemhaus erarbeitet. Aber es schadet nicht etwas Quer zu denken, Oder?

Ist ja alles gut, aber trotzdem muss man andere nicht anmachen.
 
Quanar schrieb:
Frag ein IT-Systemhaus, für sowas eignet sich ein Forum nicht. Ich bin selbst IT Admin und wenn das nicht dein Gebiet ist, dann lasse ich auch die Finger von...
Möchte dir jetz nicht zu nahe treten, aber deine Aussage hört sich nach einem Menschen an, der Aufgehört hat sich weiter zu bilden und lieber nichts neues anfasst. Sicherlich kann man alles über Dritte erledigen lassen, es gibt aber keinen Lerneffekt dabei.
 
wer auf datenschutz und wegen werkspionage so wie kundendatenschutz als firmenkapital angewiesen ist, sollte von der cloud abstand gewinnen.
 
G-Red schrieb:
Sicherlich kann man alles über Dritte erledigen lassen, es gibt aber keinen Lerneffekt dabei.

Wenn man das im privaten macht ist es das Eine.
Wenn man aber ein Unternehmen ist welches mit Kundendaten hantiert ist es ganz was anderes.

Ist sicherlich ein schöner "Lerneffekt" wenn es in die Hose geht und man weiss wie man es beim nächsten Mal besserer machen sollte.
Aber erkläre das mal deinen Kunden deren Daten weg sind!
Wünsche viel Spaß dabei.
 
  • Gefällt mir
Reaktionen: Graf von Zahl, Novocain, Quanar und eine weitere Person
sikarr schrieb:
Pro Projekt, manche gehen über Monate andere nur ein paar Wochen.

Kommt auf den Kunden drauf an, Sachen die wir löschen können fliegen nach bezahlen der Rechnung runter. Im Schnitt kann man sagen was nicht auf Band landet, ca. 1 Jahr.

Ich glaube du hast die Krux nicht verstanden.
DU, respektive deine Firma muss diese Daten ermitteln und nicht sagen ja das ist so weil da und dies und jenes.

Die Details und Unterschiede der einzelnen Projekte interessieren nicht. Deswegen ermittelst du die Werte am besten für ein ganze Jahr im Mittel, wenn du es auf einen Monat nicht brauchbar gemittelt bekommst.

snaxilian schrieb:
Runden wir großzügig ab und nehmen 8 GByte/h und damit auf 192 GByte pro Tag
Jap, du gehst aber davon aus dass man 24h Zeit hat. I.d.R. hast du aber eher ein 8-12 Stunden Zeitfenster, in der der Cloud Sync erledigt sein sollte. Denn es fallen ja während den Bürozeiten wieder neue Daten an. Über den initialen Upload solcher Datenmengen reden wir erstmal garnicht.
Außerdem: Wer sagt dass er am Firmenstandort 40Mbit/s Upstream hat?
Aber genau solche Tipps wie "das geht mit 100/40" sind der Grund warum hier viele auf ein Systemhaus verweisen statt in einem Forum zu fragen.
 
Zuletzt bearbeitet:
h00bi schrieb:
Ich glaube du hast die Krux nicht verstanden.
DU, respektive deine Firma muss diese Daten ermitteln und nicht sagen ja das ist so weil da und dies und jenes.
Pro Jahr liegen wir bei ca. 15Tb im Mittel. Und es ist schon ein Unterschied ob ich 50.000 Dateien a 80MB oder 16mio a 50Kb durchs Netz kopiere und aufs Storage schreibe.
h00bi schrieb:
Jap, du gehst aber davon aus dass man 24h Zeit hat. I.d.R. hast du aber eher ein 8-12 Stunden Zeitfenster, in der der Cloud Sync erledigt sein sollte. Denn es fallen ja während den Bürozeiten wieder neue Daten an. Über den initialen Upload solcher Datenmengen reden wir erstmal garnicht.
Außerdem: Wer sagt dass er am Firmenstandort 40Mbit/s Upstream hat?
Wir haben aktuell eine 100Mbit synchrone Glasfaserverbindung, hierrüber gehen aber noch diverse VPN verbindungen, Kundenportal und ein weiterer Standort rein und raus, wir haben also nicht die vollen 100Mbit zur verfügung, aber 40Mbit kommen hin.
 
leipziger1979 schrieb:
Wenn man das im privaten macht ist es das Eine.
Wenn man aber ein Unternehmen ist welches mit Kundendaten hantiert ist es ganz was anderes.

Ist sicherlich ein schöner "Lerneffekt" wenn es in die Hose geht und man weiss wie man es beim nächsten Mal besserer machen sollte.
Aber erkläre das mal deinen Kunden deren Daten weg sind!
Wünsche viel Spaß dabei.

Desswegen probiert man ja auch nicht am "offenem Herzen" sondern richtet eine Testumgebung ein und sammelt Erfahrungen. Wenn das erledigt ist, schaltet man das ganze dann produktiv.

All das natürlich, wenn man nachhaltig arbeiten möchte, die Mitarbeiter fördern will und das Know-How im Haus behalten möchte.
 
15TB Datenwachstum pro Jahr zusätzlich zu den bestehenden Daten... das wird in der Cloud kein Schnäppchen.

Wie wichtig ist denn Offsite, z.B. für Worst Case Szenarien wie vollständiges abfackeln aller Brandabschnitte oder ein Fluzeugabsturz aufs Firmengebäude oder Hochwasser?

Lagert ihr die Bänder in der Firma oder extern?
 
h00bi schrieb:
Außerdem: Wer sagt dass er am Firmenstandort 40Mbit/s Upstream hat?
Gegenfrage: Wer sagt, dass er das nicht hat? Genau. Weder du noch ich und in meinem Rechenbeispiel habe ich von den 40 theoretisch verfügbaren nur die Hälfte genutzt und da noch abgerundet.
Selbst mit einer VDSL50 Leitung, also 10 MBit/s Upload schafft man bei voller Auslastung 105 GByte am Tag.

Netterweise hat der TE ja mitgeteilt, dass ausreichend Bandbreite da ist während ich das hier tippe...

@sikarr Bei extrem vielen kleinen Dateien wird eher das Netzwerk limitierend sein als der Storage, zumindest wenn man nicht was kleines von der Stange nimmt. Sei es ZFS unter BSD/Unix/Linux oder Storage Spaces unter Windows beherrschen Lese- & Schreibcaches per SSD. In Kombination mit einer oder mehreren Optanes kann man es noch weiter optimieren aber weiterhin ist da das Netzwerk mit 1 GBit/s der Flaschenhals...
Bei Nutzung eines Cloudanbieters hast du den Vorteil, dass die einzelnen Kosten pro Projekt direkt einsehbar sind und entsprechend in die Rechnung bzw. vorher Kalkulierung einfließen können.

Bei Anschaffung eines oder mehrerer Server musst du beim Kauf bereits über die komplette Lebenszeit kalkulieren, also musst abschätzen können wie viel Speicherplatz in 5 Jahren benötigen werden zzgl. eines Puffers. Dies kann man (begrenzt) umgehen durch Verwendung von verteilten Dateisystemen.
Unter Windows ganz klassisch per DFS, unter Linux z.B. per Ceph, Gluster, Lustre oder eins der anderen verteilten Dateisystemen. Dann kann man quasi bei Bedarf neue Server dazu kaufen und nutzen.

So oder so würde ich wo möglich auf ein System setzen mit passendem schnellen SSD-Speicher. Dabei ist darauf zu achten, dass bei Schreibcache SSDs die Latenz niedrig sein muss sowie eine hohe Bandbreite bei gleichzeitig niedriger Queue-Depth. Die eigentliche maximale Schreibgeschwindigkeit ist nebensächlich zumindest bei SSDs, die nur für den Schreibcache genutzt werden.
Gibt auch einige kommerzielle Lösungen, die ein Storage-Tiering anbieten aber ich lese es so heraus, dass ihr Dokumente digitalisiert, einmalig diese weg schreiben müsst und dann afaik nur noch lesender Zugriff?

Wie sind denn eure Anforderungen an Hochverfügbarkeit? Primär alles in Serverraum A mit asynchroner Replikation nach Raum B und im Fehlerfall wird (manuell/semi-manuell) geschwenkt? Oder muss es hochverfügbar sein an beiden Standorten?
Das "billigste" wäre vermutlich 2x Server und dann Storage Spaces oder $was-mit-ZFS und Replikation von A nach B einrichten. Hätte ich Bauchschmerzen das selbst zu machen im kleinen Unternehmen denn ich bin in meiner Freizeit/Urlaub vieles aber nicht erreichbar für die Firma. Daher muss know-how auf mehr als einen Kopf verteilt sein oder man kann $Systemhaus oder $Hersteller anrufen und der darf sich kümmern. Dieser Mehrwert kostet eben etwas.
 
Zuletzt bearbeitet:
h00bi schrieb:
Lagert ihr die Bänder in der Firma oder extern?
seperater Brandabschnitt im Tresor in der Firma, auch für andere.
Ergänzung ()

@snaxilian
Die volle Datenmenge fällt ja nicht sofort an. Die Dokumentenscanner legen Ihre Dateien direkt auf dem Servervolume ab, die Buchscanner speichern lokal weil hier die Daten in einer bestimmten Zeit weggeschrieben sein müssen sonst streikt der Scanner.

Aktuell haben wir mehrere mögliche Lösungsansätze:
#1:
Cloud, fertige Projekte werden, entsprechend geschützt in die Cloud geschoben.
Pro:
- wir müssen nicht mehr lokalen Speicher vorhalten sonder können das nutzen was wir haben (akt. 32Tb)
Contra:
  • Inet muss evtl. aufgestockt werden, kosten 1500€ / Monat
  • Backupfrage weiterhin offen, wäre aber nicht kritisch

#2:
LTO7 Laufwerk, auslagern der Projekte auf Band
Pro:
  • im Haus
  • geringe Kosten ca. 3000€ für Laufwerk und 70€ / Band
  • statt 2,5TB (LTO6) können 6TB Netto genutzt werden, würde vorerst reichen
Contra:
  • langsam
  • ungewiss ob für die Zukunft ausreichend

#3:
2 neue Storages
Pro:
  • im Haus
  • relativ gute absicherung vor Datenverlust
Contra:
- teuer, 30.000 - 100.000€
Ergänzung ()

snaxilian schrieb:
Wie sind denn eure Anforderungen an Hochverfügbarkeit? Primär alles in Serverraum A mit asynchroner Replikation nach Raum B und im Fehlerfall wird (manuell/semi-manuell) geschwenkt? Oder muss es hochverfügbar sein an beiden Standorten?
So läufts aktuell
snaxilian schrieb:
Hätte ich Bauchschmerzen das selbst zu machen im kleinen Unternehmen denn ich bin in meiner Freizeit/Urlaub vieles aber nicht erreichbar für die Firma. Daher muss know-how auf mehr als einen Kopf verteilt sein oder man kann $Systemhaus oder $Hersteller anrufen und der darf sich kümmern. Dieser Mehrwert kostet eben etwas.
Ich bin involviert, ja aber ich mache es nicht alleine, wie schon gesagt gibt es ein Systemhaus und das würde dies dann auch umsetzten, egal für was sich entschieden wird.

snaxilian schrieb:
Bei Anschaffung eines oder mehrerer Server musst du beim Kauf bereits über die komplette Lebenszeit kalkulieren, also musst abschätzen können wie viel Speicherplatz in 5 Jahren benötigen werden zzgl. eines Puffers.
Das haben wir gemacht, aber wir sind so stark gewachsen das unser Puffer mittlerweile Weg ist. Wir haben 4 physische Machinen auf denen 25-30 VMs laufen, diese werden zusätzlich noch gesichert. Aber auch hier haben wir mit 5-10 VMs angefangen und die freien Resourcen sind nun weg. Aber das ist nicht ganz so tragisch wie das Thema Speicherung. Neue Hardware ist erst für 2021 geplant (abgesehen vom aktuellen Thema).
 
Zuletzt bearbeitet:
Lösung #1
Du kannst bei so ziemlich jedem Anbieter eine Retention einstellen, sodass ein versehentliches löschen ausgeschlossen ist, alternativ zu zwei unterschiedlichen Anbietern hochladen oder bei einem Anbieter in ein zweites RZ die Daten kopieren.
Doppelte Datenhaltung bedeutet natürlich höhere Kosten aber Backups waren noch nie günstig^^

Lösung #2
Im 1:1 Vergleich ist Tape nicht langsam ;) Aber ich werfe mal eine VTL, also virtual tape library, in den Raum und denke an die quantum DXi4800. Besteht physikalisch aus HDDs, gibt sich nach außen aber als Tape Library. Habe mit den größeren Modellen schon gearbeitet als Backupziel. Nutzung sowohl als VTL als auch als NFS Target mit zwei verschiedenen Backuplösungen. Exagrid dürfte ähnliches im Angebot haben. Ist beides aber als Sekundär- bzw. Backupspeicher anzusehen, nicht als Primärstorage mit dem gearbeitet wird.
Bei "klassischem" Tape ist aber Zukunftssicherheit kein Problem. Wenn ein Laufwerk und manuelles einlegen nicht mehr reicht, muss dann natürlich ein System mit Auto-Loader und ein paar Trays angeschafft werden. Könnte man auch schon fast eine kleine Tape Library nennen. Dann wird ein großes Projekt eben auf zwei oder mehr Tapes verteilt gespeichert.

Lösung #3
Anstatt einer (V)TL also ein klassisches SAN/NAS als Backup-Ziel? Gegen Datenverlust helfen nur mehrere Kopien von Daten.

Wenn man "Selbstbau" betreiben möchte:
Dell R740XD mit 2x quadcore, 128 GB Ram, 16x 12TB (Raid 60 aus 2x 8 Disks, netto somit 144TB), 2x 280 GB SSDs fürs OS, 2x 800 GB SSDs für Write Cache, 2x 1G (mgmt), 4x 10G (2x eingehender Backuptraffic, 2x Replikation zu anderem Server), ProSupportPlus mit Ersatzteil/Techi innerhalb von 4h nach Meldung Ticket/Fehlerdiagnose für 5 Jahre hat Listenpreis von ~27.000 € zzgl. MwSt.

Davon zwei Stück, als Software RHEL, SLES oder Ubuntu (alle 3 sind von Dell supported für die Hardware) und ZFS für die Daten. Vergleichbares lässt sich auch mit Windows und Storage Spaces & Storage Replica bauen, dann brauchst ggf. mehr SSDs. Da kenne ich die Empfehlungen nicht auswendig.

Damit hättest du für ~55.000€ (vor Steuern) nutzbare 144 TB lokal verfügbar mit einer gewissen Redundanz (Disks, Netzteile, Kabelwege. Nicht redundant: Mainboard, CPUs; Lösungen mit zwei "Köpfen" die sich einen Plattentopf teilen gibt es auch, kostet dann natürlich mehr und hättest am Ende vier Köpfe und zwei Plattentöpfe aber dann bist eher bei 80k oder so je nach Datenmenge).
Je nach eingesetzter Backuplösung kann diese dann auch ein entsprechendes Tiering in die Cloud sollten Daten länger aufbewahrt werden oder es mal mehr werden in den 5 Jahren.


Generell reden wir aber hier immer nur von Backuplösungen, korrekt? Also ihr scannt Dokumente ein, die werden auf Applikationsserver temporär abgelegt und sollen dann gesichert/weg geschrieben werden und sind dann weg vom Applikationsserver und nur noch im Backup vorhanden? Eine einzelne Sicherung auf Tape wäre dann mutig... Da bleibt dir ja fast nur zwei Server und ggf. zusätzlich Tape wenn du die 3 in der 3-2-1 Regel einhalten möchtest.
 
snaxilian schrieb:
Bei "klassischem" Tape ist aber Zukunftssicherheit kein Problem. Wenn ein Laufwerk und manuelles einlegen nicht mehr reicht, muss dann natürlich ein System mit Auto-Loader und ein paar Trays angeschafft werden. Könnte man auch schon fast eine kleine Tape Library nennen. Dann wird ein großes Projekt eben auf zwei oder mehr Tapes verteilt gespeichert.
Ich meinte damit eher das zu erwartende Speicheraufkommen, aktuell sind unsere größten Projekte um die 4-5Tb groß gewesen. Ein LTO7 wäre mMn der ökologischste Weg. Wir wollen in 2 Jahren nicht schonwieder vor der selben Frage stehen müssen.
snaxilian schrieb:
Lösung #3
Anstatt einer (V)TL also ein klassisches SAN/NAS als Backup-Ziel? Gegen Datenverlust helfen nur mehrere Kopien von Daten.
hier waren 2 Stück in Erwägung die sich Nachts oder sofort Spiegeln, aber was machen wenn auch hier der Speicher knapp wird, man muss dann 2 mal aufrüsten.
snaxilian schrieb:
Wenn man "Selbstbau" betreiben möchte:
Wäre auch eine Option.
snaxilian schrieb:
Generell reden wir aber hier immer nur von Backuplösungen, korrekt? Also ihr scannt Dokumente ein, die werden auf Applikationsserver temporär abgelegt und sollen dann gesichert/weg geschrieben werden und sind dann weg vom Applikationsserver und nur noch im Backup vorhanden?
Genau, es handelt sich um Daten die nur noch vorgehalten werden falls der Kunde etwas zu beanstanden hat oder als 3. Backup. Aber diese sind dann schon abgeschlossen.
snaxilian schrieb:
Eine einzelne Sicherung auf Tape wäre dann mutig
3-2-1 ist aktuell sowieso schwierig einzuhalten, u.a eines unserer Probleme, wir wissen nicht wohin mit den Daten, sind aber auch kein Großkonzern wo man sowas mal so eben hingestellt bekommt. Mein Chef kriegt graue Haare wenn er jedes Jahr neue Hardware kaufen oder erweitern muss damit wir arbeiten können. Es sind keine Bankdaten aber den Kunden teils doch wichtig.

Wenn wir im Jahr 18.000€ für Internet ausgeben + Cloudstorage, kann man die Daten lieber lokal vorhalten. mMn. Mein Chef wills nur aus dem Haus haben ;).
 
Zurück
Oben