Warum TrueNAS das beste NAS‑System ist – ein grosses Lob!

Hörbört schrieb:
Die Nachteile von ZFS, wie hoher RAM-Bedarf, bleiben unerwähnt.
Das ist kein "Nachteil". ZFS nutzt schlicht verfügbaren RAM (leerer RAM ist verschwendeter RAM), genauso, wie es jedes ordentliche Dateisystem auch macht (Stichwort: Cache). Wird der Speicher für andere Prozesse gebraucht, gibt auch ZFS den wieder frei (in Extremsituation manchmal allerdings leider zu langsam, dann muss man finetuning betreiben).
Wenn du Deduplizierung fährst, dann brauchst du RAM ohne Ende, aber das ist dann bedingt durch das Feature, das du aktiv nutzt.
 
  • Gefällt mir
Reaktionen: Loretta
luckysh0t schrieb:
z. B. soll es noch die "Raid5" Probleme geben.

Sehr guter Punkt, also auch mit RAID6 und generell wohl jedem RAID mit Parität. Deshalb verwendet Synology eine Mischung mit BTRFS als Dateisystem und mdadm für das RAID.


luckysh0t schrieb:
Könnte daran liegen, dass dieser "erhöhte" Bedarf nicht stimmt. Der steht und fällt mit den Anforderungen

Ein Entwickler von TN hat in nem Blog mal geschrieben, dass man bis etwa 96TB Gesamtkapazität mit 16GB gut klarkommt (also ohne Dedup). Zu kleineren RAM-Größen hat er sich nicht geäußert. Aber ja, mit 8GB kommt man für einen einfachen Datenspeicher mit wenigen Nutzern und keiner sehr hohen Gesamtkapazität sicherlich auch gut klar - haben zumindest schon viele berichtet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: luckysh0t
KillerCow schrieb:
darum versorge ich meine paar Freigaben, die ich brauche, mittlerweile aus einem LXC via Cockpit.
Steuert Cockpit dann aus dem LXC heraus den Host? Oder machst du die Freigabe vom LXC aus?
Wo liegen die Files, die auf diesen Share kopiert wurden am Ende?
 
Ich hatte mir TN mal angeschaut, als damals die Version 10 herauskam. Allerdings war es mir persönlich zu aufgeblasen.
Daher bin ich bei meinem Solaris (hatte erst 8 GB, dann 16 als eine Win 10 VM drauf kam) als Dateiserver und (später als Erweiterung) zwei Esxi als VM Host geblieben.

Mittlerweile nutze ich OmniOS anstelle von Solaris und PVE anstelle von ESXi - privat, daheim.

Bei Solaris und OmniOS nutze ich die napp-it WebGui von gea.

Aber ich kann verstehen, wenn man TN und Co mag ^^.
 
  • Gefällt mir
Reaktionen: Loretta
h00bi schrieb:
Mich würde interessieren welches TrueNAS ihr im Einsatz hattet? War das dieses Jahr mit der neuen v25, die Core und Scale unter einem Dach vereint?

Kann ich dir leider nicht sagen. Ist sicher schon 2 Jahre her. Seit dem läuft auch Unraid. Habe mir danach keine anderen Systeme mehr angesehen. Gibt derzeit auch keinen Grund dafür.
 
  • Gefällt mir
Reaktionen: Mar1u5
h00bi schrieb:
Eine Frage des use cases. Mein Homeserver nutzt KEIN ZFS und 8GB RAM wäre viel zu wenig.
Wenn du das Ding als reinen Fileserver einsetzt, der keine I/O Performance braucht, dann ist das klar, dass du deutlich niedrigere Anforderungen hast.
Die Hohe RAM Nutzung von ZFS bei Proxmox kommt zum Beispiel durch den Adaptive Replacement Cache (ARC). Da wurden früher 50% RAM verwendet. Das wurde in Proxmox 8.1 aber limitiert auf 10% und max. 16GB.
Aus dem Proxmox Wiki:


Ja das stimmt es sind eigentlich nur Fileserver - da immer mindestens 9 HDDs verbaut sind verteilt sich die Schreib und Lesegeschwindigkeit auf viele devices - die liefern problemlos zusammen 10 GBit auch ausserhalb des Cache Bereichs.

Mehr als 10 GBit brauch ich nicht.

Für andere Immer An Servergschichten ist ein supersparsamer N6005 vorhanden :D

Wie gesagt ich habe auch zw 32 und 64 weil ECC Ram wenn älter - meist doch eh nix gross kostet - aber hab das halt auch mal mit 8 getestet und war auch ok für meine Fileserver Nutzung.
 
Zuletzt bearbeitet:
h00bi schrieb:
Klar, ZFS macht dann ohne RAID sowieso keinen Sinn.

Wie kommt man auf diese merkwürdige Idee? Das ist definitiv nicht so. Der einzige Vorteil von ZFS, der ohne RAID wegfällt, ist die automatische Korrektur. CoW, Snapshots, bessere Fehlererkennung und -identifizierung etc. bleiben natürlich erhalten.


h00bi schrieb:
Eine Frage des use cases. Mein Homeserver nutzt KEIN ZFS und 8GB RAM wäre viel zu wenig.

Die RAM-Diskussion bezieht sich grundsätzlich erst einmal auf einen reinen Datenspeicher im Netzwerk. Wer mehr will (Docker, VMs, bei ZFS evtl. Deduplication, aufwändige Komprimierungsverfahren), der muss logischerweise immer mehr RAM einplanen. Das ist dann aber so individuell, dass man keine pauschale Empfehlung mehr geben kann.
 
  • Gefällt mir
Reaktionen: Purche
h00bi schrieb:
Steuert Cockpit dann aus dem LXC heraus den Host? Oder machst du die Freigabe vom LXC aus?
Wo liegen die Files, die auf diesen Share kopiert wurden am Ende?
Cockpit ist ja "nur" ein Webfrontend zum Konfigurieren diverser Dinge und in dem Fall nutze ich es nur als bequeme Variante, um Samba zu konfigurieren, welcher im LXC läuft.
Die zugehörigen ZFS Datasets werden in den LXC gemounted und dort durch Samba freigegeben. Die Daten liegen also außerhalb des LXC und das ZFS wird vom Host aus verwaltet.

Will ich ein neues Share anlegen, muss ich also auf dem Host ein neues ZFS Dataset anlegen, das in den LXC mounten und dann via Cockpit freigeben. Mag jetzt nicht die schönste Variante sein, wenn man ständig shares anlegen und löschen muss/will. Für meinen Anwendungsfall passt es aber super.
 
Banned schrieb:
Wie kommt man auf diese merkwürdige Idee?
Gegenfrage: Was passiert bei ZFS mit einem Dateisystem ohne RAID, wenn eine Platte ausfällt?

Eine derartige Konstellation macht einfach keinen Sinn bei ZFS. Dafür gibt's andere Dateisysteme.
Machen kann und darf man selbstverständlich alles.

Wenn man richtig mit ZFS umgeht, bekommt man ein nahezu unkaputtbares Dateisystem. Genau das ist der Vorteil. ZFS ohne RAID würde diesen Vorteil uneleganterweise zu Nichte machen.
 
sweber schrieb:
Finde das jetzt schon etwas überzogen wenn man bedenkt, dass viele damit sehr glücklich sind.
Ich finde da ist garnichts überzogen. Wer so handelt, der zeigt halt, was für ein elender Stümper er ist. Da habe ich wirklich absolut gar kein Verständnis für. Merke: Das bezieht sich nicht darauf ob das System funktioniert oder nicht funktioniert. Dass viele damit glücklich sind sagt auch sowieso genau nichts aus. Viele sind auch super glücklich damit ihre Daten bei irgendwem in die Cloud zu werfen. Ist trotzdem eine miese Idee.
Blutomen schrieb:
Kann ich wieder nachvollziehen noch bestätigen.
Musst du ja auch nicht. Ändert nicht an den Fakten.
Petezilla schrieb:
Zum Testen von unRAID brauchst du keine Lizenz. Du installierst es auf ein Stick und kannst es 30 Tage testen, völlig unabhängig von Lizenz.
Heute ist das vielleicht so. Damals musste die Testlizenz aktiviert werden und das hat nicht funktioniert. Das hat die Firma auch bestätigt, das Problem hatten viele zu der Zeit. Es gab Threads dazu im Forum. Sie haben dann auf den Support verwiesen um das zu beheben und der hat nie geantwortet. Chance verspielt. Das kannste so keinem anbieten.
 
proserpinus schrieb:
Gegenfrage: Was passiert bei ZFS mit einem Dateisystem ohne RAID, wenn eine Platte ausfällt?

Das, was bei jedem anderen auch passiert. Wenn kein RAID-Verbund besteht, besteht logischerweise auch keine Abhängigkeit zu den Daten anderer Laufwerke. Für das Dateisystem an sich (in Abgrenzung zu den eigentlichen Daten) schon mal gar nicht - auch mit RAID.
Dass ohne Redundanz eines anderen Laufwerks nie ein Ausfall kompensiert werden kann, ist doch ganz klar. Ein ZRAID wiederum kann einen Laufwerksausfall auch nicht mehr oder weniger kompensieren als jedes andere RAID.

proserpinus schrieb:
Eine derartige Konstellation macht einfach keinen Sinn bei ZFS.

Doch, es macht auch ohne RAID Sinn. Man kann auch ein einzelnes Laufwerk scrubben und bekommt angezeigt, welche Dateien u.U. von Daten-Korruption betroffen sind. Auch CoW kann zur Datenintegrität beitragen und hat nichts mit RAID zu tun. Snapshots kann man ebenso nutzen.
Wie bereits gesagt, der einzige Nachteil ist, dass nicht mehr automatisch korrigiert werden kann. Klar ist ZFS mit RAID besser; aber dass ZFS ohne RAID keinen Sinn machen würde, ist doch wirklich Humbug. Es ist immer noch jedem Journaling-Dateisystem hoch überlegen.

proserpinus schrieb:
Dafür gibt's andere Dateisysteme.

Für was? Für schlechtere Maßnahmen zur Bewahrung der Datenintegrität und schlechtere Möglichkeiten der Fehlererkennung?
 
  • Gefällt mir
Reaktionen: Purche, TomH22, matthias3000 und eine weitere Person
h00bi schrieb:
Das wurde in Proxmox 8.1 aber limitiert auf 10% und max. 16GB.
Aus dem Proxmox Wiki:
Ja, es sollte so sein, aber ich hab andere Erfahrung nach dem Aufsetzen von proxmox 8.4 gemacht und musste den ARC dann doch nochmal anpassen. Ist aber auch keine große Sache und steht ja auch in der Proxmox Dokumentation drin, wie man den ARC anpasst.
 
Man kann doch bei ZFS auch mit einer HDD sagen speicher Dateien in dem und dem ZFS Share x-fach - die werden dann auch weit verteilt gespeichert (zumindest auf HDDs) so dass dann die Dateien auch repariert werden können wenn die HDD z.B. in einem Berich nur beschädigt ist - aber sonst noch läuft.

Zumindest bin ich mir recht sicher dass es sowas gibt.
 
  • Gefällt mir
Reaktionen: Banned
Khorneflakes schrieb:
Das Problem ist: Deine Wortwahl selbst schon ist unsachlich und übertrieben. Da liegt der Schluss nahe, dass das, was du als "Fakten" präsentierst, genau in die gleiche Richtung gefärbt ist.

Würdest du dir die Mühe machen, vor dem Schreiben ein paar Mal durchzuatmen, deinen Ton zu mäßigen, nachvollziehbare Beispiele anstatt persönlicher Anekdoten zu liefern, wären viele hier wahrscheinlich wesentlich offener für das, was du beschreibst.
 
Khorneflakes schrieb:
Heute ist das vielleicht so. Damals musste die Testlizenz aktiviert werden und das hat nicht funktioniert. Das hat die Firma auch bestätigt,
das ist fairerweise heute auch noch so, Testlizenz wird validiert, dazu wird online abgeglichen.

bei einer normalen Lizenz muss der Server nicht online sein

Khorneflakes schrieb:
das Problem hatten viele zu der Zeit. Es gab Threads dazu im Forum.
wäre mir jetzt nicht aufgefallen, aber kann sicherlich mal passiert sein.

Thema support bei Lizenz Themen, höre ich eigentlich immer nur positives, Beispiel

https://forums.unraid.net/topic/192821-lizenzkey-auf-neuen-stick/#comment-1573415

zum Topic, hab es mir auch mal angeschaut, war auf dem kurzen Testrun fein und sicherlich ein feines OS wenn man eine freie NAS Software sucht.

als Unraid User hat es jetzt hier keinerlei Mehrwert da es auch weniger features bietet und für mich persönlich im Handling keinen Sinn gäbe zu wechseln, vor allem da ich hier alles auch meinen persönlichen Bedürfnissen anpassen kann.

Aber um in die (kostenfreie) NAS Welt einzutauchen wäre TN aktuell auch meine erste Empfehlung, war fein, übersichtlich, bietet per se Docker und kvm Virtualisierung, zfs muss man mögen, dann ist das ne gute Wahl.
 
Uzer1510 schrieb:
Zumindest bin ich mir recht sicher dass es sowas gibt.
proserpinus schrieb:
Wenn man richtig mit ZFS umgeht, bekommt man ein nahezu unkaputtbares Dateisystem. Genau das ist der Vorteil. ZFS ohne RAID würde diesen Vorteil uneleganterweise zu Nichte machen.

Es gibt die Option "copy", damit wird jeder Datenblock auf demselben Ziel n Fach geschrieben. Dadurch kann man auch mit einem einzelnen Laufwerk den Schutz gegen Bitrot etc. nutzen - zu dem Preis, dass man die nutzbare Kapazität entsprechend um n reduziert. Mal davon ab, dass alle anderen Funktionen auch ohne RAID bestehen bleiben, aber das scheint proserpinus ja wohl nicht zu reichen..um es so ziemlich gegen jedes andere Dateisystem überlegen zu machen, was man als Endnutzer haben kann.

Banned schrieb:
Es ist immer noch jedem Journaling-Dateisystem hoch überlegen.
Ich freue mich echt, sobald ZFS for Windows auf "stable" geht, da ist ja ordentlich Bewegung drin. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fusionator und Banned
Uzer1510 schrieb:
Zumindest bin ich mir recht sicher dass es sowas gibt.

Ja, gibt es. Ist aber etwas Bastelei. Ich kann mich erinnern, dass auch eher davon abgeraten wurde (warum, weiß ich leider nicht mehr).

luckysh0t schrieb:
Ich freue mich echt, sobald ZFS for Windows auf "stable" geht, da ist ja ordentlich Bewegung drin. ^^

Echt? Haben die ReFS aufgegeben?

Ich sag mal so, was MS sagt, und was dann am Ende wirklich dabei rauskommt, sind teilweise zwei paar Schuhe. BTRFS war unter Windows 8 auch schon mal verfügbar (wenn auch nicht für das Systemlaufwerk) - ist dann irgendwann wieder rausgeflogen.
 
Vielleicht ist ReFS ja auch gut. Ich frag mich nur, ob's dann wirklich so kommt.

Ich kenne mich nicht wirklich mit dem Aufbau von Windows aus, aber ich stelle mir die Frage, ob eine native Implementierung von ZFS überhaupt möglich wäre, ist doch schließlich ein UNIX-Dateisystem.

Auch unabhängig davon, hätte man evtl. die gleichen Bedenken wie von Linux-Seite (in Bezug auf die Einbindung eines Oracle-Produkts). Ich find's nativ im Kernel auch schöner. Deshalb bin ich noch bei TN Core (aber wird wohl nicht mehr so lange gehen). Mich in FreeBSD einzuarbeiten, um Vanilla aufzusetzen, da fehlt mir auch der Elan (und Docker und so sind auch irgendwie cool, auch wenn ich sie aktuelle nicht benötige).
 
Zurück
Oben