Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Na dann wird Faktor 2 nicht möglich sein, da dass bereits komprimierte Formate sind.
Ein BMP Bild kann schnell mal 10 Megabyte haben. Im BMP werden alle Bildinformationen verlustfrei abgelegt. Mit wenig Rechenpower komprimierst und wandelst du die Bilder in eine Jpg Datei von z.b 2,5 Megabyte. Hast dir Faktor 4 an Daten gespart. Beachte, die meisten Kompressionen (z.b MP3 auch) sind verlustbehaftet. JPG auch.
Naja vielleicht sollte man sich die tif/jpg anschauen wenn das Scans von A4 Papier ist. Mir ist mal so einen toller Scanner über den Weg gelaufen, wo die die jpg nur ca 10% kleiner als Bitmap und tif war. Der hat einfach mies komprimiert.
Ansonsten bei der winzigen Datenmenge von 2TB ist es auch egal. Ist es wichtiger den Kram sauber wieder zu finden?
Dann könnte man da ein paperless-ngx zwischen schalten. Und dann dort alles per restic/borg/kopia direkt sichern und einen mirror auf s3 Cloud machen.
Was ist eigentlich mit zulu gemeint? Kenne das nur als jdk Fork.
Von einem Crypt Container würde ich die Finger lassen. Macht nur Probleme, teilweise noch schlimmer als die Idee mit gestückelten rar Dateien. Sorry, aber in den letzen 15 Jahre haben sich nicht ohne Grund technisch bessere Lösungen durchgesetzt.
zulu ist halt ein cryptomator, den mal getestet hatte -
ist wohl auch veryCrypt-kompatibel -
nutze aktuell nur noch veraCrypt. Von Cryptomator ist man weg -
würde man auf dem mobile testen -
aber da geht man auch noch von android zu grapheneOS
JumpingCat schrieb:
aber in den letzen 15 Jahre haben sich nicht ohne Grund technisch bessere Lösungen durchgesetzt.
Wenn technisch, effizientere Lösungen - Was meinst du konkret und was kannst du
empfehlen ?
OSX-fileFault-Lösungen alternativ zu veraCrypt -
oder gar Vollverschlüsselungen, welche während der Installation schon aktiviert wird
( hat
man aber eher schlechte Erfahrungen gemacht, da vollverschlüsselte Systeme
2 x abgeschmiert sind -
daher kein Interessse. Auch osx-fileFault hat nicht überzeugt und zu osx möchte man nicht mehr
zurück-
Fahre die letzten Jahre recht gut mit veraCrypt -
Habe noch ein Backup, unverschlüsselt im safeShrank.
Habe ja nur pers. Dokumente, welche zwischenzeitlich digitalisiert
wurden ( sonst Aktenberge, Feinstaub, Milbengefahrt usw. )
Werde zum openMediaVault noch paar Platten dazu kaufen -
wenn es dann mobil benötigt wird, den Datensack
dann bei Hetzner einlagern ( =cryptContainer ) und fertig.
evtl. gibt es mal > 40 TB mini-Speicher,
in Rubiks Würfelformat?
Damit waren explizit die rar-Container gemeint, aber auch irgendwelche TrueCrypt/VeraCrypt Volumes. Lösche oder füge 1 Datei hinzu und musst du die 2TB neu hochladen, Cryptomator/etc splitten die Dateien auch nicht auf, du hast dann einen mix aus großen und kleinen Dateien. Ebenso nicht gut.
Du hast geschrieben: "Ganz schlechte Idee, ein Teil kaputt, alles kaputt."
Und genau das stimmt nicht .)
Meine Antwort bezieht sich auf genau diese Aussage von Dir und bei Winrar ist nicht generell "alles kaputt" wenn ein Teil-Archiv fehlt. Und dazu braucht es auch nicht die Reparaturfunktion oder ein vorheriges aktivieren von "Recovery-Teile".
Meine Güte, woher weißt Du denn, ob er überhaupt Winrar verwendet? 🙄 Was ist mit zip, gzip, 7z....?
Du greifst Dir einen ganz speziellen Packer raus und machst das zur Allgemeingültigkeit. Und auch Winrar hat ein Problem, wenn dateiübergreifend Dateien abgelegt werden, da kann Winrar auch nichts mehr machen. 🙄 Daher alles Unsinn. 🙄
Lösche oder füge 1 Datei hinzu und musst du die 2TB neu hochladen, Cryptomator/etc splitten die Dateien auch nicht auf, du hast dann einen mix aus großen und kleinen Dateien. Ebenso nicht gut.
ja, das ist allerdings richtig.
Daher hat man mehrere Container - die Archiv-Dateien werden ja nur gelesen,
die aktuellen Daten liegen in der OpenMediaVault-Box -
auf dem Rechner werden die Korrekturen recht schnell erledigt -
wogegen eine Aktualisierung des Containers in der Cloud etwas Zeit kostet
( weil neu hochgeladen werden muss -
bei diversen
cloud-Anbietern ist auch das booten des crypt-Container gar nicht möglich -
Für ein
digital-Archiv aber so ganz nützlich.
Bei Hetzner muss man 710 € hinlegen, für 1 TB
für 5 TB werden dann mal rund 2040 € fällig, auf 10 Jahre gerechnet.
Bei pCloud gibt es ein lifetime-Angebot, 2 TB, rd. 400€
( wäre dann eine Überlegung noch wert;
server, in der Schweiz )
winRar hatte man mal genutzt; funktioniert auch ganz gut,
auch mit password.
Aber um die Container nutzen zu können, nudelt der Rechner halt
eine ganze Weile herum.
Neulich noch eine 4 GB Datei enpackt ....braucht halt seine Zeit.
So gibt man sein Passwort bei vera ein, + admin-pw und kann dann sofort
die Daten nutzen
und den Sack wieder zu machen, wenn nicht mehr benötigt.
Ist ja kein illegaler Datenkram. Lediglich Geschäfts-Dokumente
was sonst im Leitzordner-Rondel im Büro und in den Regalen
herum schlummert,
welche man aber nicht im Container mitnehmen möchte, da zu
sperrig.
Gut, dann wird man den Kram aussortieren und dann in paar
fetten Datenträgern ablegen
und turnusmässig dann austauschen.
Habe eine Zeitlang mit DVD-Rohlingen experimentiert - die guten
Tayo Yuden halten auch eine Zeit lang, für das Archivmaterial -
aber nicht mehr zeitgemäss,
...Seagate Exos X22 ist wohl nun Programm
Du meinst als File Storage, oder? Teilweise noch mit Redundanz die du gar nicht brauchst. Nur so kommst du auf diese absurd hohen Preise.
Eine Lösung ist es per restic auf S3 zu schreiben. Die günstigsteren Anbieter sind dann backblaze oder wasabi, beide außerhalb der EU, teilweise mit diversen Geo Standorten. Als EU Anbieter gibt es hetzner oder ovh.
Das Ziel ist, meine wichtigen Daten auf einen Speicher zu pressen, so dass ich Diese auch
noch in paar Jahren abgreifen kann, per crypto-container-Archiv in der cloud,
dann auch mobil; im Ausland
Klingt für mich nach einem idealen Anwendungsgebiet für ein NAS oder besser gesagt: Mehrere.
Ein NAS nimmst du heran, auf dem du (von unterwegs via VPN) arbeitest. Auf einem zweiten liegen mehrere Versionen von Backups, die z. B. stündlich angelegt werden. Und einmal wöchentlich oder so gibt es ein Vollbackup, das auch an einen anderen Standort übertragen wird (z. B. Webhoster oder NAS außer Haus).
Vorteile:
volle Kontrolle über die Daten
Backups in allen Farben, die man mag
Zugriff von unterwegs
kein Rumgeeier mit verschlüsselten Containern auf einem Webspace
Nachteile:
relativ hohe Initialkosten
anfänglich hoher Konfigurationsaufwand (den man aber nur ein Mal macht)
nutze openMediaFault, im Hausspeicher.
Eine Fertig-Kiste(qnap, usw.) will man nicht, da ai immer mehr zugreift.
Einen Zugriff von Ausserhalb will man nicht.
Werden Daten benötigt, holt man diese vom Container/i.d.cloud
( teste gerade noch opencloud, nextcloud-server )
bin kein netzwerker; muss mich da erst reinfuchsen
Krik schrieb:
Ein NAS nimmst du heran, auf dem du (von unterwegs via VPN) arbeitest. Auf einem zweiten liegen mehrere Versionen von Backups, die z. B. stündlich angelegt
nas ist halt stationär gebunden. haus-intern sicher ein gute Lösung.
wenn die Daten auf Platten abgelegt, ein backup in der cloud, ...würde es mir schon ausreichen.
mit dem Fernzugriff, per vpn, muss ich mich noch näher befassen;
ist nicht mein Tagesgeschäft - können Profis besser
desktop fernsteuern, automatisierte backups usw. ist alles machbar, ja.
Möchte aber keinen riesen Aufwand betreiben -
Die Anfangsfrage war halt, ob man zb. ein 4 TB Datengrab auf, zb. 2 TB einschrumpfen
könnte,
da ja dann cloud-mässig weniger Volumen gebucht werden müsste ( wäre auch dann
kostengünstiger )
Aber da eh schon komprimierte Daten vorhanden - wird man da nicht mehr viel zusammen-
stauchen können -
so weit ist man selber mit der Erkenntnis.
Letztendlich wird man 2 x Koplettbackups machen - sich
für die Umsiedelung mehr server/cloud-Volumen anmieten und dann lokal, nach dem Umzug dann
die Daten aus der Cloud dann auf die Platten pressen.
Speicher könnten ja auch im Container, Flughafen usw. verschwinden - dann ungünstig,
wenn die Datenpakete gänzlich weg.
hoffe ja immer noch auf einen min
i-Speicher, wo man dann > 60 TB drauf pressen
kann, welche auch privat bezahlbar sind ( gewerblich, andere Nummer )
124,33 €/ pro 1TB,
macht bei 61.440 GB, rd. 7,640 €
Intel D5-P5336
Wenn du im Bekanntenkreis jemanden hast der vor ähnlichen Fragestellungen wegen Sicherung steht, jeweils eine Sicherung auf das NAS des andern machen. Wireguad ist bei Fritzboxen inzwischen schnell aufgebaut, da braucht man nichts im Internet freigegeben. Programme wie Duplicati verschlüsseln zuverlässig und es werden nur die Änderungen über die Leitung geschoben.
Habe eine Zeitlang mit DVD-Rohlingen experimentiert - die guten
Tayo Yuden halten auch eine Zeit lang, für das Archivmaterial -
aber nicht mehr zeitgemäss,
Blu Ray mit M-Disk, da kann man 100GB speichern, und soll nach Tests lange halten. Ich hab über 2TB an Fotos, die ich auf 20 M-Disks unverschlüsselt und mit RAW verteilt habe. Ist zwar etwas Arbeit, aber die Dinger sind relativ sicher, dazu eben noch mehrfach auf HDDs und extern verteilt.
Die M-Disk BR haben den Vorteil, daß sie leicht und unproblematischer gelagert wie transportiert werden können. Beim Transport einer Festplatte (Backup an einem anderen Ort) hat man immer das Risiko, daß diese mechanisch kaputt gehen kann.
nutze openMediaFault, im Hausspeicher.
Eine Fertig-Kiste(qnap, usw.) will man nicht, da ai immer mehr zugreift.
Einen Zugriff von Ausserhalb will man nicht.
Werden Daten benötigt, holt man diese vom Container/i.d.cloud
( teste gerade noch opencloud, nextcloud-server )
Das OS bzw. die Anwendung heißt openmediavault bzw. omv.
Das mit AI verstehe ich nicht. Die (Fertig-)NAS machen nichts, was du nicht willst.
Mach dir bewusst: Cloud heißt nur, dass deine Daten auf dem Computer eines Anderen liegt.
Zugriff auf das eigene NAS via VPN ist extrem bequem. Das VPN kann man auf jedem Gerät (sogar Handy!) mit einem Klick/Touch aktivieren und es wird automatisch eine sichere Verbindung zum Heimnetzwerk aufgebaut. Und dann verhält sich das alles so, als wäre man vor Ort im eigenen LAN unterwegs. Das heißt, auf das NAS kann ohne weitere Konfiguration auf das Webinterface (z. B. omv) zugreifen. Auch eventuelle Freigaben via Samba, NFS, usw. sind direkt erreichbar., so als wäre man zuhause.
LinuxKnochen schrieb:
nas ist halt stationär gebunden. haus-intern sicher ein gute Lösung.
Ich verstehe nicht, warum du ein NAS als haus-interne Lösung abstempelst. Mit VPN hast du deine eigene Cloud und zwar so, wie du willst und ganz ohne das Rumgehampel mit dem Hoch- und Runterladen von 2 TB großen (!) Containern.
LinuxKnochen schrieb:
desktop fernsteuern, automatisierte backups usw. ist alles machbar, ja.
Möchte aber keinen riesen Aufwand betreiben -
Bei Fertig-NAS sind das alles nur Klicks.
Mein Backup habe ich z. B. so eingerichtet:
1) Auf dem Quell-NAS habe ich den rsync-Server aktiviert. (<10 Sekunden)
2) Auf dem Ziel-NAS habe ich die Backup-Jobs eingerichtet. (~2 Minuten)
(3) Auf dem Ziel-NAS habe ich einen Zeitplan hinterlegt, der das NAS vor den Backup-Jobs einschaltet und hinterher wieder ausschaltet [~2 Minuten]).
LinuxKnochen schrieb:
hoffe ja immer noch auf einen mini-Speicher, wo man dann > 60 TB drauf pressen
kann, welche auch privat bezahlbar sind ( gewerblich, andere Nummer )
60+ TB sind keine übliche Nutzung mehr. Damit bist du Nische und Nische kostet. Du brauchst dafür auch nicht nur 3 Festplatten (3x 20 TB) sondern ein Vielfaches davon, da du ja auch ein Backup brauchst (min. nochmal 3x 20 TB).
Warum bist du jetzt eigentlich bei 60 TB, wenn es doch sonst immer um 2 TB ging? 2 TB sind günstig zu realisieren.