Eure Top 5 Proxmox-Projekte

Loretta schrieb:
Leider gibt es kaum Inhalte auf Deutsch. Alles ist Englisch :-(
Funzt super über Scripts aber läd halt auf interne Platte wo Proxmox darüber läuft :(
 
Loretta schrieb:
Leider gibt es kaum Inhalte auf Deutsch
Zwar schon etwas her aber ich hab das *ARR Konstrukt gestern installiert und auch nur mit Müh und Not heruasgefunden was man einstellen muss damit man deutschen Content bekommt. NEbst Indexer (oben verlinkt) mit VIP Zugang (sind 15€/Jahr - kann man verkraften)
 
Gibt auch für die Quality Profiles entsprechende Infos im verlinkten Guide, sonst weiter die Trash Guides ;) Hab das bei mir ohne Helper Scripts am laufen, ich wollte jetzt endlich mal nen "sauberen" Docker-Host haben, auf dem einfach die ganzen Stacks laufen. Download auf andere Verzeichnisse als direkt am Proxmox Host ist ja da auch nur Konfigurationssache, da hab ich tatsächlich fast am längsten gebraucht, das entsprechend so wie ich mir das vorstelle einzurichten.
 
Ich plane ja auch eine etwas größere Umstellung.

Aktuell:
DIY NAS auf dem Unraid läuft und einige Docker. Leider stoßt dieser an seine Grenzen und es kann auch nur RAM erweitert werden. Zahlt sich bei DDR3 auch nicht mehr aus.
Dementsprechend wird diese Box zum NAS degradiert und alles andere läuft auf einem mini PC

Dell 5030 (i5 6500t, 8gb DDR4) und die Mediathek Share des NAS wird extern eingebunden.
Ich weis blos noch nicht ob ich ein Mischkonstrukt aus LXC Container und falls benötigt, eine VM für Docker betreiben soll oder direkt den Weg über Ubuntu Server und Docker. Ersteres kommt mir eher als Ressourcenverschwendung vor
 
Die Frage kannst du nur selbst beantworten. Tatsache ist, du beraubst dich einer gewissen Flexibilität.
Bedenken solltest du auch, dass LXC und Docker zwar beides Containertechnologien sind, diese sich aber schon deutlich unterscheiden und ein Vergleich eigentlich hinkt.

Du könntest auch einen PVE installieren und direkt auf dem PVE Docker nachinstallieren - ob das sinnvoll ist oder nicht, darf jeder für sich selbst beantworten. Umgekehrt kannst du selbstverständlich auch QEMU auf dem Ubuntu Server laufen lassen.

So oder so, würdest du keine zusätzlichen Ressourcen aufwenden müssen wenn diese knapp sind.
 
maxik schrieb:
eine VM für Docker betreiben soll
Für vieles der beste Weg, grade Kram wie externe Shares bringt unter LXC nur Kopfschmerzen. Bin grad auch dabei diverse LXCs in einem Docker Host zu konsolidieren, der läuft jetzt bei mir mit Rocky Linux als Host OS, war imho ein guter Weg zum Ressourcen sparen und Stabilität für den Host.
 
  • Gefällt mir
Reaktionen: maxik und Loretta
@WhiteHelix Vielen Dank! Hab mir gestern spät abends dazu nochmol ausgiebigGedanken gemacht und zum definitiven Schluss gekommen weil jeder LXC Container eine eigene IP bekommt anstatt über das Host NEtz und anschließend mit Ports weiterarbeiten.
Da ist Docker um einiges "feiner"
 
Ich sehe Vor- und Nachteile. Docker ist halt ein "OS" und wenn das abfackelt wars das mit allen Containern.
Ich finde es umständlicher und habe beide Techniken im Einsatz.

Ich hab mich nicht weiter eingelesen, hatte das aber auch auf dem Pi5 als umständlich empfunden. Backups. Prox -> ein Klick und warten. Docker Backupe ich immer als Vollimage und nicht einzelne Container.
Speicherintensive Dinge (Usenetclient) läuft auch nicht mehr im Docker. Die Zuweisung von Ressource empfinde ich in Prox um einiges einfacher als bei Docker. Egal ob VM oder LCX.

Einzelne IPs sind recht schnell im Router festgelegt und so viele neue Images ziehe ich persönlich nicht hoch. Zum "ausprobieren" empfinde ich Docker als die einfachere Lösung. Tibber, Garmin, FreshRSS, PiHole (Dev und Final) oder Adguard sind fix im Docker und fressen kaum Platz.
 
sun-man schrieb:
Docker Backupe ich immer als Vollimage und nicht einzelne Container.
das braucht man nicht zu sichern (weder image noch Verzeichnis mode), sichern sollte man sich seine docker run oder composee zum Starten ...

und zu sichern wären nur die persistent Daten aus den mounts ... das ist ja (auch) das Schöne an Docker ...

innerhalb des Dockers sollte ja nichts wichtiges sein, so sind die aufgebaut.
 
  • Gefällt mir
Reaktionen: M-X und sun-man
Stimmt. Aber auch da ist eine Lernkurve drin (wie überall) die man durchaus mal durchspielen sollte.
Vermutlich ist das nicht ganz richtig. Docker Compose usw muss ja vorher ausgefhrt werden. Die dazugehörige Conf sollte dem letzten Stand des laufenden Containers entsprechen. Ich hatte z.B. PiHole Dev laufen, recht lange und dann musste ich das umziehen. Leider entsprach die Composedatei nicht der letzten Config (war 2 Jahre alt) und ich hab es nicht so einfach hinbekommen. Nextcloud hatte ein ähnliches Problem.
Lag aber sicher an meiner unstrukturierten Art zu arbeiten und die Config nicht jedes Mal neu abzuziehen. Docker Autocompose half da leider auch nicht immer.

Bitte nicht falsch deuten. Ich mache Docker nicht schlecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sykehouse und alturismo
Zurück
Oben