Kaufberatung 2-Bay: QNAP vs. Ugreen vs. Asustor

Und statt mit der "manuellen Einrichtung der Container über die GUI" Zeit zu verschwenden, würdest du eher ... was machen? Portainer?

Ich habe hier noch eine 256er und 512 SSD rumliegen, die ich nicht mehr brauche. Die könnte ich ja dafür nutzen.

Ja, Geräusche sind echt sehr subjektiv – hab "leider" ein recht empfindliches Gehör. Na ja, mal sehen, wie es sich entwickelt. Es ist eh noch nicht klar, wo ich das NAS letztlich aufstellen kann. Aber das ist ein anderes Thema.
 
Grendor schrieb:
Und statt mit der "manuellen Einrichtung der Container über die GUI" Zeit zu verschwenden, würdest du eher ... was machen
Kannst du machen, musst es aber nicht. Auch Dockge wäre neben der Ugreen-GUI eine grafische Alternative.

Eine manuelle Containereinrichtung ist etwas anderes als eine docker-compose. Die manuelle Einrichtung kommt eher der Einrichtung mit der CLI gleich, nur wird es halt grafisch gemacht. Der Unterbau bzw. der Befehl ist der gleiche. Bei einem Compose-File ist das ähnlich, aber etwas anders aufgebaut. Alle Einstellungen sind gleich, werden aber nur anders aufgelistet, und mehrere Container können zeitgleich deployed werden. Aus diesem Grund solltest du ja erst einmal einen kleinen Container testen, ohne weitere Container oder Datenbanken einbinden zu müssen. Das ist auch nicht viel schwerer, aber macht die Sache für einen Anfänger unübersichtlich. Wie wäre es also mit Mini-QR?
Code:
services:
  mini-qr:
    image: ghcr.io/lyqht/mini-qr:latest
    container_name: mini-qr
    network_mode: bridge
    ports:
      - 18080:8080

Einfach einen Ordner unter Docker erstellen > mini-qr und bei der Einrichtung (Compose) diesen angeben. Dann noch einen Namen vergeben und los geht es. Wenn der Container gestartet ist, solltest du diesen unter der IPdesNAS:18080 erreichen können. Dann nimmst du einen Container mit mehr Optionen usw. Du solltest im Idealfall wissen, was diese Zeilen bedeuten. Die Dockeranwendung von UGOS schreibt dir schon, wenn etwas nicht stimmt. Und kennzeichnet dieses.

Das Gute bei den Containern ist, dass du nicht wirklich etwas kaputtmachen kannst. Selbst wenn ein Containerupdate einen Fehler produziert, erstellst du einfach einen neuen Container mit der Vorgängerversion und alles ist gut. Nicht alle Einstellungen lassen sich über die GUI erstellen. Darunter fallen Verzeichnisse im Host-System wie /etc oder /var/run/docker.sock, welche für die Containersteuerung von anderen Containern, z. B. Watchtower oder Uptime-Kuma, benötigt werden. Alle Variablen (CLI & Compose) sind sehr gut auf docker.com beschrieben.

Grendor schrieb:
Ich habe hier noch eine 256er und 512 SSD rumliegen, die ich nicht mehr brauche. Die könnte ich ja dafür nutzen.
Kannst du machen. Anschließend musst du den Docker-Ordner verschieben oder am besten diese NVMe oder SSD als erstes Volume einrichten oder Docker neu installieren (fragt wo es installiert werden soll)

Grendor schrieb:
Ja, Geräusche sind echt sehr subjektiv – hab "leider" ein recht empfindliches Gehör.
Ich auch. Der Aufstellort hat aber viel Einfluss auf die Wahrnehmung. Such einfach nach Synology wie diese leiser gemacht wurden in Bezug auf HDD-Geräusche. Da findest du eine Menge und auch Videos. Viele nutzen die weiche Seite von einem selbstklebenden Klettband und kleben dieses auf die Schienen, wo die Laufwerke eingeschoben werden. Dadurch findet eine Entkopplung statt. Dem Erfindergeist ist da keine Grenzen gesetzt. Andere kleben Moosgummi unter die NAS-Füße, usw.
 
  • Gefällt mir
Reaktionen: Grendor
Danke dir vielmals für diesen "Anschub" ;-)

Verstehe langsam die Zusammenhänge. Bisher habe ich zwei Container von offiziellen Images aus dem Repository mit der Docker-App auf UGOS erstellt: Portainer und omni-tools. Images sind wohl wie "Kochrezepte" und werden dann in Containern instanziert. Und die Nutzung der Docker-App ist ja dann nix anderes als zB "docker pull" in der CLI, oder?

Dein "mini-qr"-Beispiel nutzt Docker compose, das eigentlich ein Tool ist, um Apps zu erstellen, die aus mehreren Containern bestehen, zB nem Web-Frontend mit dahinterliegender DB. Ist das soweit richtig?
Habs als "Projekt" in der Docker-App angelegt und nun läuft der Container.
 
NIcht ganz.

Image ist das komplette Image, vergleichbar mit einer ISO. Also ein geschlossenes System mit der Anwendung und Abhängigkeiten. Es ist vergleichbar mit einer Sandbox.

Portainer und Dockge sind nichts anderes als Alternativen zur UGOS-Docker-App. Mit der Ugreen-App hast du aber bessere Möglichkeiten, z. B. die Auswahl der Compose direkt aus dem entsprechenden Ordner, um einen Container wiederherzustellen. Die App ist eben an das System angepasst, während die anderen beiden überhaupt eine grafische Oberfläche anbieten, auf Servern und OS, die über kein GUI verfügen.

Die Docker-App macht ja noch mehr als einen Pull. Neben den grafischen Anpassungen kannst du dort auch Updates anstoßen oder Stacks (Projekte) steuern. Langfristig ist die Compose/Stack/Projekt die einfachere und sichere Variante. Sie geht schneller als das Einstellen über die GUI = CLI und lässt sich bei einem Ausfall, Neuinstallation oder einem Systemwechsel leicht wiederherstellen, ohne vorher etwas exportieren zu müssen. Entsprechende Ordner mounte ich in den Verzeichnissen relativ (innerhalb von /docker), also mit ./ . Nur bei Verzeichnissen, die außerhalb von /docker liegen, nutze ich den absoluten Pfad.

Kommst du auf den Container mit der IP:Port oder den Hostnamen des NAS: Port? Kannst du Mini-QR benutzen?

Dann würde der nächste Container kommen, mit mehr Variablen, z. B. Pfade.

Zum Verständnis:
image: ghcr.io/lyqht/mini-qr:latest > URL zum Image:Version
container_name: mini-qr > manueller Containername
network_mode: bridge > Netzwerkmodus hier Docker-Standard Bridge (Container können sich nicht unterhalten)
ports: 18080:8080 > Systemport: Dockerport: (Systemport kann geändert und angepasst werden, Dockerport ist vom Entwickler vorgeschrieben und kann nur unter bestimmten Voraussetzungen geändert werden)

Diese Konstellation von links System und rechts Container wird auch in anderen Einstellungen, z. B. Verzeichnissen, angewendet. Mehr dazu in der Dokumention zu Docker.
 
  • Gefällt mir
Reaktionen: Azghul0815
Alles soweit verstanden (habs zuvor sehr vereinfacht dargestellt) 🫡
Nur bei einer Sache bin ich nicht sicher: Was meinst du mit "Einstellen über die GUI"? Ich mein, die Ugreen-App, Portainer und Dockge sind ja auch GUIs. Oder meinst du das händische Erstellen eines Containers vs. Compose/Stack/Projekt?

snoogans schrieb:
Kommst du auf den Container mit der IP:Port oder den Hostnamen des NAS: Port? Kannst du Mini-QR benutzen?
Ja, mini-qr lief auf Anhieb. Hab danach noch OmniTools installiert, einmal über Portainer und dann noch mal über Projekt/Compose, einfach um den Unterschied zu sehen. Danach habe ich mich an Seafile versucht und habe es auch ans Laufen bekommen. (Allerdings habe ich dann realisiert, dass Seafile eine eigene Form der Datenspeicherung verwendet, was natürlich Vorteile hinsichtlich Versionierung und Delta-Speicherung bietet, aber das ist mir zu heiß für meine Produktivdaten.)

Der Sprung war allerdings etwas groß^^ Aber wie du schon meintst, es kann ja nix schiefgehen. Werde mich einfach mal weiter vorarbeiten. Mein Hauptthema ist ja Datei-Sync, weil mir die UGOS-App "Sync & Backup" keinen tollen Eindruck macht. Werde also Syncthing probieren, dann noch Immich und MacVlan muss ich mir wohl auch mal ansehen.

snoogans schrieb:
network_mode: bridge > Netzwerkmodus hier Docker-Standard Bridge (Container können sich nicht unterhalten)
Wenn man sie in ein gemeinsames Netzwerk packt, schon, oder? Bei Seafile waren jedenfalls mehrere Container involviert, die dann miteinander kommuniziert haben.
 
  • Gefällt mir
Reaktionen: Azghul0815
Grendor schrieb:
habs zuvor sehr vereinfacht dargestellt
Trotzdem muss es ja sinngemäß stimmen. Es ist schon schwer, das einfach und verständlich zu schreiben, damit nicht gleich die nächsten Fragezeichen auftauchen.

Grendor schrieb:
Was meinst du mit "Einstellen über die GUI"
Grendor schrieb:
händische Erstellen eines Containers
Es gibt eigentlich nur die Installation via CLI oder Compose. Das händische Erstellen eines Containers ist aber an der CLI grafisch angelegt, was du am Netzwerk, Namen oder einzelnen Containern erkennst. Alleine das Compose-File im Appordner gespeichert zu haben, ist ein Vorteil und erspart den Export der Container-Config über die GUI. Das kann man teilweise auch automatisiert machen, aber warum, wenn die aktuellste Container-Einstellung schon fertig zum sichern bereitliegt?

Grendor schrieb:
Der Sprung war allerdings etwas groß
Grendor schrieb:
Werde mich einfach mal weiter vorarbeiten.
Das passiert, wenn man auf einmal zu viel will. Es gibt noch sehr viele Optionen, die man sich erst einmal grob durchlesen sollte, wofür diese sind. Dann kann man entscheiden, ob man sie benötigt, weglassen oder abändern muss, um das Projekt starten zu können. Dafür wirst du noch ein paar Tage benötigen und die eine oder andere Frage haben. Aber der Aufwand lohnt sich und du verstehst, wie das System dahinter funktioniert und wo man bei Fehlern suchen könnte, im Gegensatz zu den OS, die diese Apps automatisch installieren. Es kann ja immer einmal vorkommen, dass eine Anpassung nötig ist. Solche fertigen Container zu installieren und dann zu behaupten, man kann Docker, halte ich für falsch. In den Jahren ist einiges einfacher geworden, was die Dokumentation angeht oder die Möglichkeit, einen Stack zu starten. Solange du nicht alle Einzelheiten verstanden hast, zählt das alles noch unter Testen. Vorsicht auch vor vielen Anleitungen und Videos im Internet: Selten sind diese ordentlich umgesetzt. Als Grundlage sollten immer die Originaldoku oder Compose-Files des Projektes dienen. Alles andere wäre wieder ein Abkürzen. Erst wenn du meinst, es ist so, wie du es dir vorstellst, machst du das System noch einmal platt und richtest es sauber ein.

Grendor schrieb:
Das ist aber erst etwas für Fortgeschrittene. Versuche nicht, zu viel auf einmal zu machen, sondern wenn ein Projekt läuft, löschst du es auch einmal, um wie bei einem Backup dieses neu zu erstellen, mit den alten Einstellungen und Daten. Das musst du alles einmal durchgespielt haben. Bei Immich kommt dann noch die Datenbank (Postgresql) dazu. Dort musst du einen Dump über einen Container oder manuell erstellen und diesen wieder herstellen können. Die eigentlichen Daten und Bezeichnungen sind unwichtig, sondern nur das, was in der Datenbank steht. Im Grunde ist das immer dasselbe, nur etwas anspruchsvoller und komplizierter. Ohne etwas Hintergrundwissen wird das aber nichts. Viele werfen einfach Immich als Begriff ein, ohne zu realisieren, wie kompliziert das für einen Anfänger sein kann und wo die Stolpersteine lauern. Nimm dir etwas Zeit für das Projekt. In 2–3 Stunden mal nebenbei als Anfänger einen NAS einzurichten wird nichts.

Grendor schrieb:
MacVlan muss ich mir wohl auch mal ansehen
Davon rate ich ausdrücklich ab. MACVLAN hat seine Eigenheiten und sollte nur im Notfall und unter bestimmten Voraussetzungen angewendet werden. Da gibt es so schlaue Videos von Navigio, die das gern einsetzen und sind wieder bei falschen Anleitungen und Videos. Es schafft mehr Probleme, als es nützt, in Bezug auf die Anwendung und Usability in den meisten Containern. Das größte dabei ist, dass MACVLAN nicht mit dem Hostsystem kommunizieren kann. Das ist aber kein Bug, sondern ein Sicherheitsfeature von MACVLAN. Man kann zwar ein weiteres Bridge zu diesem MACVLAN einbinden, um den Zugang zu realisieren, aber warum? Dann hebelt man die Sicherheit aus und macht MACVLAN überflüssig. Die Container sind im Docker-Bridge-, App-Bridge- oder im Host-Netzwerk schon gut aufgehoben. In Einzelfällen kann man auch auf MACVLAN zurückgreifen. Aber das ist eher etwas für Fortgeschrittene, die wissen, was sie machen. Anstatt jedem Container eine Netzwerkadresse zuzuweisen, ist es ratsam, jedem Container eine Subdomain über einen Reverse Proxy anzubieten. Das macht die Verwendung viel einfacher und müllt das Netzwerk nicht zu. Nebenbei kann man noch SSL nutzen. Docker sollte so genutzt werden, wie es auch hauptsächlich konzipiert wurde.

Grendor schrieb:
Wenn man sie in ein gemeinsames Netzwerk packt, schon,
Nein. Die Option network_mode: bridge sorgt dafür, dass dieser Container im Docker-Bridge-Netzwerk landet. Dort ist die Kommunikation der Container untereinander unterbunden.

Grendor schrieb:
Bei Seafile waren jedenfalls mehrere Container involviert, die dann miteinander kommuniziert haben.
Hättest du die Doku gelesen und nicht einfach irgendwelche Comspose von Seafile übernommen, wüsstest du es. Letztendlich solltest du jede Zeile in der Compose erklären oder zuordnen können. Wenn kein network_mode: (Bridge oder Host) angegeben wird, erstellt Docker ein Bridgenetzwerk für den jeweiligen Stack. Dort dürfen sich die Container auch untereinander unterhalten und können mit den Hostnamen angesprochen werden. Natürlich kann man dem Netzwerk auch einen manuellen Namen mitgeben:
Code:
services:
  seafile-app:
    networks:
      - seafile-net

networks:
  seafile-net:
    driver: bridge
    name: seafile

Das Ganze ist aber nachher halb so wild. Du musst dich nur damit beschäftigen und vor allem nicht übertreiben und zu viel auf einmal wollen. Das wirft dich ansonsten wieder zurück. Versuche einfach, systematisch vorzugehen. Oft ist es einfach der Übereifer, etwas schnell zum Laufen zu bekommen. Das fällt einem aber früher oder später dann auf die Füße. Ich hatte schon User, die Containerverzeichnisse nicht richtig gemountet hatten und alle Daten nach einer Neuinstallation weg waren, die sie jahrelang gesammelt hatten. Wessen Schuld ist das Wohl? Bei einem Update wird der Container weggeworfen und kommt einer Neuinstallation gleich. Umso wichtiger ist es, dass alles passt! Für das automatische Updaten verwende ich Watchtower. Es hat schon seinen Grund, warum ich zur Vorsicht bei Anfängern mahne!
 
Zuletzt bearbeitet von einem Moderator:
snoogans schrieb:
Hättest du die Doku gelesen und nicht einfach irgendwelche Comspose von Seafile übernommen, wüsstest du es. Letztendlich solltest du jede Zeile in der Compose erklären oder zuordnen können.
In der Tat habe ich die Doku in der Nacht nur sporadisch gecheckt. Es war die allererste Testsession mit Docker und dem NAS, und nach der Installation von dem Mini-QR und OmniTools habe ich nach irgendetwas gesucht, um einfach mal hands-on-Erfahrungen zu sammeln. Denn …
snoogans schrieb:
Versuche einfach, systematisch vorzugehen. Oft ist es einfach der Übereifer, etwas schnell zum Laufen zu bekommen. Das fällt einem aber früher oder später dann auf die Füße.
Ich kann deinen Ansatz total nachvollziehen – insbesondere aus der Sicht derjenigen, die den Aufwand betreiben, Neueinsteigern zu helfen. (Das habe ich früher bei Linux sowie diversen Programmiersprachen und Frameworks auch gemacht.) Hast du Empfehlungen für 2, 3, 4 Apps, die irgendeinen sinnvollen Einsatzzweck haben und in der Komplexität ansteigen? Denn auf meiner Liste der Apps, die ich perspektivisch einsetzen möchte, stehen anscheinend nur Klopper wie Syncthing, Immach, ein DNS-Filter, Vaultwaren/Bitwaren, Jellyfin/Plex.
snoogans schrieb:
Viele werfen einfach Immich als Begriff ein, ohne zu realisieren, wie kompliziert das für einen Anfänger sein kann und wo die Stolpersteine lauern. Nimm dir etwas Zeit für das Projekt. In 2–3 Stunden mal nebenbei als Anfänger einen NAS einzurichten wird nichts.
Absolut. Das NAS steht jetzt hier und wird sukzessive über mehrere Sessions ausprobiert/eingerichtet. Das kann dauern, bevor es wirklich in den Produktiveinsatz geht.
snoogans schrieb:
Das ist aber erst etwas für Fortgeschrittene. Versuche nicht, zu viel auf einmal zu machen, sondern wenn ein Projekt läuft, löschst du es auch einmal, um wie bei einem Backup dieses neu zu erstellen, mit den alten Einstellungen und Daten. Das musst du alles einmal durchgespielt haben.
Ah, guter Punkt, auch die Docker-Apps explizit zu backupen und wiederherzustellen. Jedes Backup ist schließlich nur so gut wie seine Wiederherstellung.
 
Grendor schrieb:
Denn auf meiner Liste der Apps, die ich perspektivisch einsetzen möchte, stehen anscheinend nur Klopper wie Syncthing, Immach, ein DNS-Filter, Vaultwaren/Bitwaren, Jellyfin/Plex.
Ich kann dir nur ezählen, wie ich das mache.
Ich suche mir einen Service raus, der mich interessiert.
Sagen wir mal Jellyfin. Dann da auf die Homepage und die Installation verfolgen, respektive bei UGOS die installation starten.
Parallel frage ich simple die KI (Gemini, ChatGPT) was einzelne Zeilen bedeute und ob er es mir erklären kann.
Das funktioniert ganz gut und nach 2-3 Installationen erkenne ich Muster und dementsprechend auch, wie so ein Container aufgebaut ist, wo wie was Konfiguriert wird usw.

Der Ansatz alles komplett zu verstehen ist gut und sinnvoll, in meiner Welt aber nicht nötig.
Eine Handy App installiere ich auch nur und nutze sie oder eine Windows oder Linux Software. Ähnlich empfinde ich es bei Docker Images. Wenn alles geht gut, wenn nicht, kann man immer noch Deep Dive machen.

Hängt von deinem Anspruch an dich ab
 
  • Gefällt mir
Reaktionen: Grendor
Grendor schrieb:
Hast du Empfehlungen für 2, 3, 4 Apps, die irgendeinen sinnvollen Einsatzzweck haben und in der Komplexität ansteigen?
Die Antwort lieferst du schon selber:
Grendor schrieb:
Vaultwaren/Bitwaren, Jellyfin/Plex
Dazu noch NPM. Dieses wirst du für das Zertifikat von Vaultwarden benötigen, sofern du dort nicht Rocket einsetzt, was sicherheitstechnisch nicht angeraten wird (Vaultwarden Doku).

Wenn man sich an der originalen Anleitung hält, bekommt man das sehr schnell und gut hin. Ich könnte dir die Befehle geben, aber hilft dir das wirklich weiter?

Azghul0815 schrieb:
Parallel frage ich simple die KI (Gemini, ChatGPT) was einzelne Zeilen bedeute und ob er es mir erklären kann.
Auch die KI macht oft Fehler. Das erkennst du einfach daran, dass du noch einmal nachfragst und das Ganze umstrukturiert wird. Einzig die Dokumentation zu Docker ist wirklich anzuraten. Die paar Zeilen kann sich doch wohl jeder heraussuchen und auch über ein Browserplugin übersetzen lassen. Letztendlich muss man das einmal verstanden haben.

Azghul0815 schrieb:
Der Ansatz alles komplett zu verstehen ist gut und sinnvoll, in meiner Welt aber nicht nötig.
Von komplett redet keiner, sondern von dem, was man selbst benötigt. Die Entwickler liefern die passenden Compose-Files. Jeder User sollte wissen, was jede Zeile in diesem Stack bedeutet, um sich selbst zu schützen. Einfach etwas bedenkenlos aus dem Internet zu kopieren, ist wohl die schlechteste Art. Beachte bitte, dass du auch bei Docker mit Benutzerrechten und teilweise Skripten zu tun hast, welche dein System schädigen können.

Letztendlich wird man erst einmal um das Lesen nicht herumkommen. Das gilt für Docker und die Projekte. Wer hier abkürzt, wird früher oder später Probleme bekommen. Dann geht das Gejammer los, dass man nicht mehr an seine Files herankommt und diese so wichtig sind (je nach Anwendung). Auch bei Docker können sich Probleme einschleichen, wenn sie auch leicht durch eine alte Version wiederherzustellen sind.

Ich hatte nur mit so vielen Usern zu tun, die unbedacht einfach irgendetwas aus dem Internet kopiert haben und nachher vor dem Schaden saßen. Alle meine Zöglinge mussten auch dadurch und haben es auch geschafft. Sie können es jetzt alleine und fragen nur noch bei schwierigen Problemen nach, wenn es denn doch einmal klemmt – das ist aber auch okay. Und es waren User, die nichts mit IT am Hut hatten oder aus dem Bereich kamen!

Unabhängig davon ist jetzt alles sehr gut dokumentiert und anwendungsfreundlicher geworden, im Gegensatz zu vor über 10 Jahren, als ich damit angefangen habe. Den restlichen Weg muss der User aber schon alleine gehen. Gerne bin ich bereit, Hilfestellung zu geben, aber nicht, um die Bequemlichkeit zu unterstützen.
 
  • Gefällt mir
Reaktionen: Grendor
Klar, auch KI kann Fehler machen. Mir hat eine KI sogar schon mal komplette Container in Proxmox zerlegt, weil ich mich blind darauf verlassen habe. Aber am Ende ist das nicht so dramatisch. Zum einen sollte man sowieso ein Backup haben, das sich im Notfall unkompliziert zurückspielen lässt, bevor man an einem Produktivsystem herumbastelt. Zum anderen handelt es sich bei unseren privaten Setups in den seltensten Fällen um lebenswichtige Projekte. Wenn bei mir mal ein Jellyfin-Server oder etwas Vergleichbares nicht mehr läuft, weil ich ihn zerschossen habe, ist das kein Weltuntergang. Es ist ärgerlich und kostet Zeit, klar – aber letztlich ist es ein Hobby. Wir reden hier nicht von Bankdaten oder anderen kritischen Informationen, die verloren gehen könnten.

Auch das ist das Schöne an Containern:
Man kann sie relativ schnell sichern und bei Bedarf ebenso einfach wiederherstellen, wenn man daran herumspielt. Und wenn man etwas wie Vaultwarden einsetzt, sollte man zusätzlich unbedingt ein separates Backup seiner Passwörter und Daten anlegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grendor
Das erkläre einmal anderen.

Ein Container, ordentlich eingerichtet, überlebt auch ein Update mit Watchtower. Bei mir werden alle Container automatisch aktualisiert, seit Jahren!

Das ist, was ich immer in der Kaufberatung meine. Es sind halt oft keine 2–3 Klicks und es läuft. Wer auf die Einrichtung keine Lust hat, kann sich diese gegen Bezahlung buchen. Entsprechende Anbieter gibt es ja. Man muss aber in diesen Anbietern Vertrauen haben und bei Problemen wird man wieder zur Kasse gebeten.
 
  • Gefällt mir
Reaktionen: Grendor
@snoogans
wir sind uns grösstenteil eh einig und du hast mir ja eh schon ein paar mal aus der Patsche geholfen (btw. 2 Unbound Server laufen jetzt), aber bei Immich, Jellyfin und co...kann man gerne erstmal OOTB nutzen.
Ich lerne durch verkackte Konfigs und bisher hat mich ChatGPT immer ans Ziel gebracht, oft via Umwegen aber immerhin versteh ich nun was in meinen Containern wo liegt usw.
 
  • Gefällt mir
Reaktionen: Grendor
Das kannst du ja gerne so machen, was aber eben zu diesen Problemen führen kann. Gerade bei Jellyfin oder Immich sind benutzerspezifische Einstellungen nötig, um die Ordnerrechte oder die Hardwarecodierung richtig nutzen zu können. Ich kann nur aus meinen Erfahrungen sagen, dass später das Geschrei groß ist, wenn etwas weg ist. Schuld ist dann aber wieder der Container, Entwickler oder NAS-Hersteller.

Letztendlich habe ich für das Compose-File auch nur eine Vorlage erarbeitet, welche ich abarbeite. Vieles weiß man mit der Zeit auch einfach aus dem Kopf.

Was wo in deinen Containern liegt, kannst du auch einfach über das Terminal sehen. Wichtiger sind da eher die richtigen Mounts. An den Container muss nichts gemacht werden, was ja auch nicht möglich ist, außer du machst einen Fork.
 
  • Gefällt mir
Reaktionen: Grendor und Azghul0815
Hab gerade nicht so viel Zeit, komme aber Stück für Stück gut vorwärts. Syncthing habe ich mit dem offiziellen Image und eigener docker-compose.yml installiert und gut ans Laufen bekommen. Muss noch schauen, ob es für meinen Anwendungszweck wirklich taugt, weil es zB keine selektive Synchronisierung kann. Danke noch mal für die guten Tipps zum Start. @snoogans Jetzt weiß ich auch, was du damit meintest, besser keine Zeit mit der CLI zu verschwenden, sondern zB direkt mit docker compose zu arbeiten. Werde mich als Nächstes mit NPM beschäftigen, dann Vaultwarden.

Aber noch mal zur Lautstärke. Tatsächlich ist meine WD Red Plus absurd und abnormal laut. @snoogans Dafür muss man nicht mal das Gras wachsen höeren können. Habe dazu einen eigenen Thread aufgemacht, inklusive Vergleichsaufnahme.
 
Zurück
Oben