Debian 12 - nach gewisser Zeit kein Zugriff mehr auf NFS-Freigabeordner

H3llF15H

Vice Admiral
Registriert
Juni 2009
Beiträge
7.163
Hallo allerseits!

Leider habe ich ein Problem, bei dem ich nicht weiß wo ich ansetzen soll. Daher möchte ich euch um Hilfe und Unterstützung bitten.

Auf meinem NAS (QNAP TS-673A) lasse ich mehrere VMs mit Debian 12 mit unterschiedlichen Anwendungen laufen. Um schon mal zwei Problemkinder zu nennen: Nginx Proxy Manager und PhotoPrism. Bis dato war es so, dass die Daten innerhalb der VM lagen - dies sollte sich nun ändern um die Daten besser sichern zu können.

Dazu bin ich hergegangen und habe habe einen Freigabeordner namens Docker angelegt, in dem für unterschiedliche Programme (Beispiele siehe oben) die Daten abgelegt werden. In den Docker Compose-Dateien habe ich entsprechend auf die Pfade verwiesen.

Um der VM den Zugriff auf den Freigabeordner zu ermöglichen, habe ich eine NFS-Freigabe erstellt und die IP-Adressen der VMs eingetragen. Zwecks Zugriff bin ich wie folgt vorgegangen:

- Installation des NFS client package
Code:
apt update
apt install nfs-common

- Erstellen von Mountingpoints
Code:
cd /mnt
mkdir NFS_Multimedia_SebReg
mkdir NFS_Docker

- Editieren um folgenden Inhalt am Ende der fstab-Datei für eine dauerhafte Einbindung des Freigabeordners
Code:
nano /etc/fstab

Code:
# <file system>                <dir>                         <type>   <options>   <dump>     <pass>
10.20.18.40:/Multimedia_SebReg /mnt/NFS_Multimedia_SebReg    nfs      defaults    0          0
10.20.18.40:/Docker            /mnt/NFS_Docker               nfs      defaults    0          0

- Neustart der VM
Code:
systemctl reboot

- Ausführen der Docker Compose-yml

Alles funktioniert so wie gewünscht, nur nach einer gewissen Zeit scheint keine Verbindung mehr zum Freigabeordner zu bestehen. Dies macht sich dadurch bemerkbar, dass ich mich weder bei Nginx noch bei PhotoPrism anmelden kann - falscher Benutzer / Passwort. Starte ich die VMs neu läuft für eine gewisse Zeit wieder alles.

Schalte ich mich auf die VM wenn ich mich mal wieder nicht anmelden kann sehe ich jedoch, dass der Freigabeordner gemountet ist.

Nun meine Frage an euch: wo könnte hier das Problem sein? Ich bin leider nicht so bewandert was Linux anbelangt und musss mir viel anlesen und auch mal was ausprobieren. Meiner Vermutung nach verstreicht im Hintergrund eine Zeit, die die NFS-Verbindung kappt. Kann das sein?

Vielen Dank für eure Bemühungen!

Schöne Grüße

Sebastian
 

Anhänge

  • Screenshot 2023-09-11 090622.png
    Screenshot 2023-09-11 090622.png
    76,2 KB · Aufrufe: 55
Zuletzt bearbeitet: (Screenshot hinzugefügt)
Ich bin leider auch kein Experte, aber es klingt so, als ob ein Lease abläuft. Wenn man nach "nfs lease time" googelt, findet man einige Sachen. Was sagt denn das SysLog?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H3llF15H
Daloop schrieb:
als ob ein Lease abläuft
In so eine Richtung vermute ich das Problem auch.

Daloop schrieb:
Wenn man nach "nfs lease time" googelt, findet man einige Sachen.
Werde ich mal nach suchen. Warum ich darauf noch nicht selbst gekommen bin liegt vermutlich am fehlenden Kaffee :)

Daloop schrieb:
Was sagt denn das SysLog?
SysLog Debian oder die Anwendung selbst? Zugegeben, in die SysLog habe ich nie einen Blick riskiert. Werde ich nachholen.
 
kürzlich ein Kernel-Update reingekommen bei dir? Hab seit dem neusten Update auf meinem Proxmox-Server auch Probleme mit den mounts per fstab. Bei mir verschwindet der aber nicht, sondern der mount bei Boot funktioniert einfach nicht mehr. Sprich wenn ich die Kiste reboote (passiert jetzt nicht häufig, daher ist mir das egal) muss ich manuell die USB-Platte mounten, die für meine Nextclouddaten dran hängt.
 
  • Gefällt mir
Reaktionen: H3llF15H
Janz schrieb:
kürzlich ein Kernel-Update reingekommen bei dir?
Ich behaupte Mal vorsichtig nein, denn die VMs sind frisch installiert.
Janz schrieb:
Bei mir verschwindet der aber nicht, sondern der mount bei Boot funktioniert einfach nicht mehr.
Und bei mir scheint es aber so zu sein als sei der Mount weiterhin vorhanden, zumindest wird er mir angezeigt wenn ich zum in /mnt/NFS_Docker/ mittels ls -l nachsehe. Dort werden dann alle Unterordner (Nginx, PhotoPrism etc.) angezeigt.

Daloop schrieb:
Im QNAP-Forum wird empfohlen, nfsv3 beim Mounten zu erzwingen:
Blöd nur, dass bei QNAP nfsv3 mit nfsv2 einhergeht :D Da es sich um einen Artikel von 2011 handelt, habe ich den Haken für v2 und v3 spaßeshalber rausgenommen und die VMs neu gestartet. Die Dienste funktionieren augenscheinlich noch :)
 

Anhänge

  • Screenshot 2023-09-11 093020.png
    Screenshot 2023-09-11 093020.png
    69,5 KB · Aufrufe: 55
Okay. Dann könnte man noch in der nfsmount.conf das timeout hochnehmen:
Code:
# The amount of time, in tenths of a seconds, the client
# will wait for a response from the server before retransmitting
# the request.
# Timeo=600
 
  • Gefällt mir
Reaktionen: H3llF15H
Ansonsten beim nächsten Mal gleich einen Blick in die Syslogs von NAS und VMs werfen. Da wird man vermutlich eher herausfinden, wo es klemmt. ;)
 
  • Gefällt mir
Reaktionen: H3llF15H
Die SysLogs sehe ich mir morgen in Ruhe an, da komme ich heute nicht zu. Zwischen Tür und Angel möchte ich das nicht machen :D

€DIT:
Nur mal am Rande: unter anderem bekomme ich folgende Zeile ausgespuckt, wenn ich unter Debian den Befehl mount ausführe...

Code:
10.20.18.40:/Docker on /mnt/NFS_Docker type nfs4 (rw,relatime,vers=4.1,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.20.18.22,local_lock=none,addr=10.20.18.40)

Siehe da... timeout 600...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Daloop
Hallo zusammen,

ich habe die Sache weiter im Auge behalten:
  • starte ich das NAS neu und später automatisch die VMs, funktionieren die Dienste wie oben beschrieben nicht
  • starte ich nur den Dienst selbst neu anstatt die komplette VM ändert das an der Situation nichts
  • starte ich hingegen die VM komplett neu funktioniert alles wie gewünscht
  • auch ein verzögerter Start der VM nach 10 Minuten schafft keine Abhilfe
  • im SysLog ist nichts erkennbar was auf eine Trennung o.ä. der nfs-Verbindung hinweist
  • auf alle gemounteten Ordner habe ich Zugriff, auch wenn der Dienst nicht funktioniert
  • Deep Sleep, Hibernate etc. sind alle "inactive"

Mein Rückschluss: keine Ahnung. Ich schiebe es schon irgendwie auf Debian 12 selbst oder die Art und Weise wie gemountet wird.

Noch irgendwelche Ideen?
 
H3llF15H schrieb:
starte ich das NAS neu und später automatisch die VMs, funktionieren die Dienste wie oben beschrieben nicht
Was sagen denn die Syslogs der Debian-VMs, wenn deren Docker-Instanzen direkt nach einem NAS-Neustart versuchen auf die NFS-Freigaben zuzugreifen?
H3llF15H schrieb:
starte ich nur den Dienst selbst neu anstatt die komplette VM ändert das an der Situation nichts
Welcher Dienst ist hier gemeint? Auch hier mal in die Syslogs der Debian-VMs reinschauen.
H3llF15H schrieb:
Deep Sleep, Hibernate etc. sind alle "inactive"
Das wäre meine nächste Frage gewesen. ;)
 
Nabend allerseits!

Nachdem ich mich das Thema doch sehr genervt hat, habe ich mir auf meinem QNAP die Container Station 3 angesehen. Durch meine Unwissenheit von damals, gepaart mit der altbackenen Aufmachung der Container Station 2, habe ich darum einen Bogen gemacht und mich in die Thematik "VM" und Linux eingearbeitet.

Nun bin ich an dem Punkt, dass ich all meine VMs in der Container Station 3 untergebracht habe - läuft.

Docker Compose (Anwendungen) stellen jedoch noch ein Problem dar, denn hier kann ich keine Freigabeordner einbinden. Container selbst stellen kein Problem dar.

Irgendwelche Ideen?

:)
 
Zurück
Oben