h00bi schrieb:
Da macht sich - außer Endkunden - schlicht niemand ins Hemd und erstellt Statistiken.
Also ich erwarte durchaus von Datenzentren, dass diese wissenschaftlich prüfen, was mir ihren Daten und Dateisicherheit los ist. Das sollte selbstverständlich sein. Ich behaupte sogar, dass bei Datenzentren sogar Statistiken bezüglich dem Einfluß der Kühlung/Klimatisierung darauf erstellt werden. Das führt nämlich dazu, wie oft Backups notwendig sind, wieviel Backup Platz notwendig ist und wie stark die Klimatisierung ausgeführt sein muß und endet dann nämlich auch in Kosten, was sehr wohl wichtig ist.
h00bi schrieb:
Was Endkunden daheim zusammen basteln und als Homeserver bezeichnen ist bei einer Risikobewertung sowieso eine Vollkatastrophe.
Nach welchem Maßstab?
Für das, was in einer Firma steht und auf denen ihr System läuft? Für das was ein Microsoft bei Azure einsetzt?
Klar ist das nichtmal ansatzweise auf dem Level.
Allerdings ist deren Anwendung auch nichtmal ansatzweise vergleichbar, mit dem was auf einem Homeserver bei Otto Normal User daheim steht.
Wenn da ein PaperlessNGX- und ein PiHole-Docker auf einem NAS laufen, ist die Hardware schon fast wieder Overkill. Das machen genauso viele Anwender auf einem Raspberry Pi auf einer SD Speicherkarte ohne Backup.
Da macht es durchaus Sinn sich mal mit solchen Statistiken zu befassen und zu fragen, ist das für meine Anwendung relevant? Ich finde es auch interessant, ob ich nachher ein Fazit ableiten kann, ob es Sinn macht den Zyklus für Backups bei mir zu erhöhen oder zu lassen.