Pihole Disk shortage voll

refskegg

Ensign
Registriert
Mai 2021
Beiträge
219
Hi Leute,

ich hab schon eine Weile meinen RaspberryPi 4 als Pihole mit local DNS im Heimnetz installiert. Funktioniert auch alles einwandfrei. Es läuft auf einer 32GB SD-Karte das Image von SemperVideo (SV-Pihole). Pi und Pihole sind auf neustem stand (gerade nochmal Updates durchlaufen lassen).
Was ich nur nicht verstehe ist, dass er mir ständig anzeigt (und das schon seit Monaten), dass mein Disk Shortage fast voll ist!? Ich hab schon diverse Workarounds, die ich so im Internet gefunden habe gemacht, aber nichts hat geholfen. Da ich mich nicht gut mir Linux auskenne, wüsste ich auch nicht, wo ich da jetzt ca. ansetzen muss oder was das überhaupt aussagt und welche Folgen das hat.

Vielen Dank schon mal.
 

Anhänge

  • Disk_shortage.JPG
    Disk_shortage.JPG
    105,6 KB · Aufrufe: 274
Offensichtlich sind die Datenbank und das Log voll. Wenn du keine tiefergehenden Analysen der Historie machst, kannst du beides löschen (vorher pihole deaktivieren, anschließend aktivieren.)

Bei mir kümmert sich logrotate um das Log und ein wöchentlicher Cronjob um die Datenbank:
Code:
#!/bin/bash

sudo service pihole-FTL stop
sudo mv /etc/pihole/pihole-FTL.db /home/pi/Backup/pihole/pihole-FTL_$(date +"%y-%m-%d").db
sudo service pihole-FTL start

cd /home/pi/Backup/pihole/
(ls -t|head -n 5;ls)|sort|uniq -u|sed -e 's,.*,"&",g' | xargs rm
Der speichert immer Sonntag morgens Datenbank weg und behält die der letzten 5 Wochen, alles ältere wird gelöscht.
 
  • Gefällt mir
Reaktionen: meph!sto, refskegg und SpartanerTom
@loumes

Ich hab das mal nach der Anleitung gemacht. Der Speicher musste tatsächlich erweitert werden, da nur 7GB zugewiesen waren.
Löst wahrscheinlich trotzdem nicht das Problem, weil irgendwann Datenbank und Log wieder volllaufen wie @riversource schon gesagt hat - auch wenn das jetzt wahrscheinlich dauern wird.
Die Meldung ist jetzt natürlich erstmal weg.

@riversource

kann ich deinen Code einfach so in das Terminal kopieren oder muss ich da noch etwas beachten. Bei mir und Linux braucht es echt eine "Schritt für Schritt"-Anleitung 😂
 
refskegg schrieb:
kann ich deinen Code einfach so in das Terminal kopieren oder muss ich da noch etwas beachten. Bei mir und Linux braucht es echt eine "Schritt für Schritt"-Anleitung 😂
Ja, jede Zeile einzeln ins Terminal kopieren, Enter drücken, das war es. Vorher bitte ein Systembackup machen, am besten von der SD-Karte ein Image ziehen, damit man bei Bedarf den Ausgangszustand wiederherstellen kann.
Dazu förderte die Suchfunktion folgendes zutage:
https://www.computerbase.de/forum/threads/sd-karte-image-erstellen.2039523/
 
refskegg schrieb:
kann ich deinen Code einfach so in das Terminal kopieren oder muss ich da noch etwas beachten.
Prinzipiell kannst du sie auf der Konsole ausführen, wenn die Voraussetzungen vorhanden sind (Unterverzeichnisse etc.). Aber eigentlich ist das ein Cron Job, wer will das schon alle paar Tage von Hand machen? Wie man Cron Jobs einrichtet, findet man im Internet relativ leicht. Ich würde sagen, das ist einfacher, als die Kommandos einzeln auf der Console auszuführen.

Ich bin auch kein Freund von großen Datenbanken, denn das kostet Performance. 7 GB würde ich nicht mal meinem V-Server zumuten, aber ganz sicher nicht einem Raspberry Pi. Deshalb auch das wöchentliche Aufräumen, dann bleibt der Pi schön schlank.
 
Ist denn überhaupt sicher, dass Datenbank und Log zu groß sind? Wäre es nicht auch möglich, dass insgesamt nicht mehr genug Speicherplatz zur Verfügung steht, der Grund dafür aber evtl. ganz woanders liegt (z.B. apt-Paketcache)? Gibt im Netz ein paar Tutorials zum Aufräumen. Mit dem folgenden Befehl kannst du testen ob es was gebracht hat.

Code:
df -h

Ansonsten würde ich an deiner Stelle mit der erweiterten Partition einfach mal abwarten was passiert :)
 
riversource schrieb:
Wie man Cron Jobs einrichtet, findet man im Internet relativ leicht. Ich würde sagen, das ist einfacher, als die Kommandos einzeln auf der Console auszuführen.
Alles klar, danke. Dann gucke ich mal nach.

loumes schrieb:
der Grund dafür aber evtl. ganz woanders liegt (z.B. apt-Paketcache)?
Ich hab mal den Output von df -h angehängt. Vielleicht sticht dir ja was sofort ins Auge, was viel zu groß ist.
 

Anhänge

  • df -h_Output.JPG
    df -h_Output.JPG
    46,9 KB · Aufrufe: 163
Versuch mal folgendes und poste dann noch einmal einen Screenshot von df -h

Code:
sudo apt-get clean
sudo apt-get autoremove
 
Hat sich etwas getan, aber keine signifikanten Sprünge
 

Anhänge

  • df -h_Output2.JPG
    df -h_Output2.JPG
    47,1 KB · Aufrufe: 124
Ich würde einfach abwarten wie sich das entwickelt. Sieht eigentlich ganz normal aus.
 
  • Gefällt mir
Reaktionen: refskegg
Zurück
Oben