Netzwerklaufwerk unter verschiedenen Nutzerkennungen erreichen

snaxilian schrieb:
Viel zu aufwendig und selbst @Raijin hat heut ein Brettchen vor dem Kopf :D
Sieh es mir nach meinem fast 2-monatigen, selbstauferlegten cb-Entzug nach, dass selbst ich nicht unfehlbar bin ;)

(wobei ich die ganze Zeit von schreibendem Zugriff auf die Backup-Freigabe ausging, wie es ja wohl auch der Fall zu sein scheint)

snaxilian schrieb:
Im Normalfall sollte die Backupsoftware alte Sicherungen von sich aus löschen sofern man da eine Retention einstellen kann. Zumindest brauchbare Software kann so etwas, sprich du stellst ein dass du beispielsweise 14 Sicherungen haben willst und am Tag 15 wird nach erfolgreichem Abschluss der Sicherung die vorherige gelöscht.
Da bin ich voll bei dir. Das manuelle Aufräumen von alten Backups sollte grundsätzlich nicht notwendig sein. Genau dafür gibt es ja zB das Generationen-Prinzip. Selbst wenn dies in der Software nicht umgesetzt ist, sollte es dennoch möglich sein, dort einzustellen, dass nur die letzten x Backups behalten werden.
 
  • Gefällt mir
Reaktionen: snaxilian und halwe
Danke noch mal an alle fürs intensive Mitdenken, das hatte ich so nicht erwartet.

1. Zugriff auf das Backup-Laufwerk.
Dieses Laufwerk ist eine ziemlich komplexe Sammlung verschiedener Backups unterschiedlicher Herkunft. Ich nutze es auch für ad hoc Sicherungen.
Meine Nutzdaten-PC-Sicherungen werden über die Jahre ausgedünnt, also je älter, desto größer die Abstände.

Meine Sicherungssoftware kann das so nicht automatisch.
Und ja, dadurch, dass 3 TB langsam knapp werden, muss ich nun öfter schwere Entscheidungen treffen, welche Sicherungsstände weg können. Deshalb brauche ich zum Aufräumen eben ab und zu Zugriff auf das NAS Backup-Laufwerk. Und dieser Zugriff soll aber immer hübsch die manuelle Eingabe von Nutzer und Passwort erfordern und auch nicht länger als erforderlich bestehen.

2. Sicherung des NAS selbst
Ich erkenne das Problem, danke für den Hinweis. Meine NAS-Daten liegen tatsächlich hübsch vom PC aus zugreifbar im Netzwerk und zumindest auf dem einen PC ist gleichzeitig auch die lokale Sicherungsplatte im Zugriff, die die Kopie der NAS-Daten enthält. Selbst wenn ich verschlüsselte Sicherungen bauen würde, könnte sich der Trojaner an beiden Orten zu schaffen machen (sofern er die mindestens 20 TB großen Dateien bearbeiten kann).
Ich habe also nur an die physische Integrität (getrennte Wohnetage für NAS) gedacht.
Optimal wäre hier ein Verfahren, welches die lokale Sicherungsplatte von Windows aussperrt und ein extra Login erfordert. Ich denke, da wird es auch unter Windows etwas geben, hab aber noch keine richtige Idee.

3. Vergrößerung des NAS
Richtig, ein neues NAS mit 8TB von WD würde 250 € kosten, eine neue Platte der gleichen Kapazität gibt es ab 150 €, bei gleicher Quali sicher auch erst ab 180 €.
Mein Problem hier, abgesehen davon, dass ich mich mit den Jahren an die Bedienung gewöhnt und alles eingerichtet habe, ist eigentlich ein anderes: Am meisten nerven mich wie oben schon angedeutet die geringen Zugriffszeiten. Ich brauche mehrere Minuten, um ein Foto anhand des Dateinamens zu finden oder auch nur die Größe eines Verzeichnisbaums zu ermitteln. Und das bei einer Übertragungsrate von ansehnlichen 100 MByte/s. Selbst der Zugriff auf ein Acronis Sicherungsimage braucht für die erstmalige Initialisierung über eine Minute.

Hier hatte ich die Idee, eine Einbaufestplatte selbst auszusuchen, die mit einem großen internen Cache beworben wird.


Viele Grüße, Halwe
 
Warst du je in der Situation wo du dachtest: "Mensch, ich hab ja vor zwei Jahren die Datei xyz.txt gelöscht, wie gut das ich noch so alte Sicherungen habe!" oder ist hier wieder ein klassischer Fall wo jemand Archiv oder Versionierung mit Backup verwechselt?^^

1. Das ist kein technisches sondern ein organisatorisches Problem. Vereinheitliche die Sammlung. Daten die man vor x Monaten oder Jahren gelöscht hat waren offensichtlich damals nicht wichtig genug um sie sofort wiederherstellen zu wollen und wenn doch weißt du noch genau wann wo in welchem uralt-Backup dies vorhanden war? Der Rheinländer würde sagen: Wat fott es es fott.
Wenn man Daten lange aufbewahren will oder muss nimmt man eine Archivlösung (und dazu passend ein Backup vom Archiv).
Wenn man von bearbeiteten Dingen alle Versionen aufbewahren will oder muss nimmt man im besten Fall etwas, das die Unterschiede nachhalten kann. Git bei (Text-)Dateien oder je nach Wunsch eine passende Bildbearbeitungssoftware, zumindest konnte das Lightroom früher als ich es mal verwendet habe.
Ansonsten nimm für den manuellen Aufräumaufwand das Webinterface vom NAS, da wirst ja vermutlich ebenso User + Passwort eingeben müssen und kannst darüber Daten löschen und aufräumen.

2. Nimm ein externes HDD Gehäuse mit USB, pack da deine jetzt interne HDD rein und finde heraus, wie du vom NAS ein Backup-to-USB triggern kannst. Sollte jedes halbwegs bessere NAS können. Alternativ am PC belassen aber eben physikalisch trennbar. Ein Verschlüsselungstrojaner ist ja nicht das einzige Problem, es gibt ja noch die üblichen Verdächtigen wie z.B. Feuer, Wasser (was oft auf Feuer folgt^^), Blitzschlag, Kinetik durch einen selbst, andere Menschen, Haustiere etc.

3. Die Übertragungsrate hat nur begrenzt bis gar nix mit der Latenz beim Zugriff zu tun. Deine Idee ist keine Idee, da dein Grundproblem nicht gelöst wird da du falsche grundlegende Annahmen zur Funktionsweise von Festplatten hast. Die englische Wikipedia erklärt das recht gut (klick mich), die deutsche ist da etwas veraltet und weniger brauchbar. Der feine aber sehr relevante Unterschied ist aber: Die Festplatte und deren interner Cache hat absolut gar keine Ahnung vom Dateisystem oder was Order, Dateien und Dateinamen überhaupt sind und kennt nur Blöcke.
Was du verbessern willst sind Dinge, die entweder auf Serverseite passieren muss und beim verwendeten Dateisystem anfängt und bei der Art wie die Freigabe eingerichtet ist aufhört als auch auf Clientseite ob und in welchem Umfang Windows sich so etwas merkt und/oder durchsuchbar macht. Erster Anlaufpunkt wäre für mich da die Datei-Indexierung auf dem Netzlaufwerk zu aktivieren.
 
Also Snaxi, danke, ich versuche mal darauf einzugehen, aber wir kommen hier an unsere Grenzen.
Zu 1.: Du merkst, hier wird es (backup-)philosophisch :rolleyes:. Ich komme mit der Bacjkup-Stückelung gut gut zurecht. Und nein, über das Webinterface komme ich nicht auf die Verzeichnisstruktur. Wäre mir aber bei meinen teilweise komplizierten Aufräumaktionen zu umständlich.
Zu 2.: Ich brauche eine Verbindung àla Netzwerk, wo sich das Backprogramm nach ihm bekannter Manier einloggen kann. Und wie ich mich vor physischen Schäden schütze hatte ich ja erwähnt, aber danke für die Hinweise.
Zu 3: Ich denke, der Unterschied zwischen Zugriffszeit ("Latenz" wäre hier neu als Begriff) und Transferrate ist mir schon klar, deshalb habe ich letztere nur nebenbei erwähnt.
Aber denkst du nicht, dass ein Disk-Buffer hilft, etwas schneller die Dateistrukturen zu durchforsten? Schon weil vielleicht der MBR immer physisch an der gleichen Stelle liegt. Wozu braucht ein Diksbuffer Kenntnisse des Dateisystems, wenn er immer wieder auf die gleichen Directory-Strukturen (und nicht auf die Dateiinhalte) zugreift.
Ich hab's mal getestet: Ein (kleines) Verzeichnis mit 1000 Fotos (zusammen 2,6 GB) braucht 5 s, ehe ich seine Größe über die Eigenschaften ermittelt habe. Mache ich das gleiche direkt danach noch einmal, braucht es wieder genau 5 s.
Das ist eben lange, wenn ich bedenke, dass ich rund 200.000 Dateien auf den NAS habe. Und genau hier sollte ein besserer Diskbuffer Abhilfe schaffen können, denn Windows bzw. das Linux auf dem NAS machen das offensichtlich nicht. Eine Indexierung konnte ich bisher nirgends einstellen.
 
Schatzi Halwi, sind wir schon bei Kosenamen angelangt? Wäre mir neu...

Wenn du mit dem Sammelsurium zurecht kommst ist doch gut, war ja auch nur ein Optimierungsvorschlag. Kann man machen, muss man nicht.
halwe schrieb:
Aber denkst du nicht, dass ein Disk-Buffer hilft, etwas schneller die Dateistrukturen zu durchforsten? Schon weil vielleicht der MBR immer physisch an der gleichen Stelle liegt. Wozu braucht ein Diksbuffer Kenntnisse des Dateisystems, wenn er immer wieder auf die gleichen Directory-Strukturen
Das hat nix mit denken zu tun sondern mit Wissen. Glauben ist was für die Kirche, IT sind Fakten und ja ich weiß das, da ich Storage schon viele Jahre beruflich (mit-)mache. Der Diskbuffer hat auch keine Kenntnis von irgendwelchen Directory- bzw. Verzeichnisstrukturen. Ich habe auch nie gesagt, dass dies notwendig wäre um etwas zu verbessern. Wenn du die Eigenschaften eines Ordners dir ansiehst muss das Dateisystem sich angucken welche Daten da alles in dem Ordner liegen bzw. referenziert werden und anschließend guckt es in die Datei Header der Daten rein wo die Größe steht und das wird aufaddiert und dir zurück gemeldet. Ist auf dem lokalen PC genau so. Bei deinem Versuchsaufbau sind übrigens viele Unbekannte beteiligt:
  • Dein PC von dem du testest
  • Das Netzwerk
  • Der Samba-Serverdienst auf dem NAS
  • Das OS vom NAS an sich
  • Das Dateisystem
  • Die Festplatte im NAS an sich
Wo das von dir erhoffte Verbesserungspotential steckst ist im "page cache", ist auf der Seite zum Thema Disk Buffer übrigens verlinkt. Hat das NAS sehr wenig oder zu wenig RAM oder wurde vom Hersteller entsprechend klein konfiguriert dann bringt auch eine neue HDD nur sehr sehr sehr sehr wenig. Alles was nicht aus dem page cache bedient werden kann muss von der Disk angefordert werden. Die wiederum muss die Platter laufen lassen, die Leseköpfe an die richtige Stelle bringen und dann das Ergebnis zurück liefern. Auf der gleichen HDD liegen bei solchen NAS-Lösungen in der Regel ja auch das Betriebssystem vom NAS was Lese- und Schreibzugriffe verursachen wie so ziemlich jedes Betriebssystem.
Wie genau da jetzt der MBR eine Rolle spielen soll musst du mir bitte mal fachlich begründen.

Zur Indexierung: Wenn ich es richtig in Erinnerung habe delegiert der Windows Index Dienst das bei Netzlaufwerken an den Server und dieser soll dann einen Index aufbauen, zumindest bei Win 10 Clients soweit ich es im Kopf habe. Keine Ahnung ob und falls ja wie WD dies umgesetzt hat. Müsste ich raten würde ich sagen: Gar nicht.
 
  • Gefällt mir
Reaktionen: halwe
Sorry, aber bei snaxilian drängt sich mir snaxi förmlich auf :rolleyes:

Danke snaxilian, dass du dir die Mühe mit den Erläuterungen machst.
Ich verstehe, dass der Disk-Buffer in der Regel eher so was wie ein Durchgangsspeicher ist, nicht unbedingt zuständig für das cachen häufig benötigter Speicherbereiche (auch wenn er sich in den Spezifikationen häufig "256 MB Cache" nennt).
Ich werde aber noch mal zum Testen ein USB-Laufwerk an das NAS anschließen und schauen, ob es sich dort auch plötzlich cachefrei verhält. Direkt am USB-Port des PC gibt es wohl immer einen Cache, da erfolgt der besagte Zweitzugriff auf die Verzeichnisstruktur mit 1000 Dateien immer quasi verzögerungsfrei, egal was ich bei den Laufwerkseinstellungen einstelle.

Ich hätte also auch mit einer anderen Platte vermutlich keine Vorteile. Höchstens ein anderes NAS würde helfen, wobei es wohl sehr kompliziert ist, dieses Cacheverhalten eines NAS aus dem Spezifikationen rauszulesen. Konsequenter wäre dann also, eine 1 TB SSD an den USB 3 Port des NAS zu hängen und alles bis auf die Videosammlung dort aufzuspielen.

Es gibt übrigens einen Tick, wie man Windows dazu bringt, auch Netzwerklaufwerke zu indexieren: Dazu muss man diese als Offline-Kopien einrichten. Dazu braucht man dann aber reichlich lokalen Speicher.
 
Zurück
Oben