Ja, ich denke das ist der Punkt. Die Leute tun sich schwer, ein neues Bedienkonzept anzunehmen. Das war sicher auch den Gnome Entwicklern klar.Rossie schrieb:und wurde wie erwartet rege genutzt.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Keine Angst vor Linux: Ein Überblick zum Einstieg in die Windows-Alternative
Rossie
Rear Admiral
- Registriert
- Dez. 2010
- Beiträge
- 5.305
Ich denke nicht, dass der Fokus war, das Bedienkonzept anpassen zu können. Die weitgehenden Möglichkeiten hat man aber in der Tat selbst genutzt. Vielleicht war es für RHEL von vorneherein eingeplant. Würde mich aber wundern, wenn ich andere Entscheidungen der Gnome-Macher Revue passieren lasse.Kuristina schrieb:Die Leute tun sich schwer, ein neues Bedienkonzept anzunehmen. Das war sicher auch den Gnome Entwicklern klar.
sedot
Vice Admiral
- Registriert
- Nov. 2017
- Beiträge
- 6.702
Naja, rsync muss ich erst konfigurieren, snapper ist schon fertig und funktionsfähig. Insofern, ja, aus meiner Sicht ist der Aufwand höher. Nachdem ich mir die (bei Wikipedia verlinkten) GUIs für rsync angeschaut habe erscheint es mir nicht so einfach, als dass ich mich damit im Moment auseinandersetzen will.Caramon2 schrieb:Natürlich ist das bequem, aber so viel mehr Aufwand ist das mit rsync auch nicht, dafür funktioniert das mit jedem Dateisystem, ist viel flexibler und man auch dann noch darauf zurückgreifen, wenn die Linux-Partition beschädigt wurde, oder man sie aus anderen Gründen neu formatiert.
Natürlich muss mein Umgang mit Daten nicht für dich passen, ich wollte eher meine momentane Sichtweise umschreiben. Es steht dir völlig frei mehr Aufwand zu treiben für Dinge die dir wichtig sind. Ich wollte nicht den Eindruck vermitteln dein Verhalten bewerten zu wollen, nur falls da was falsch ankam.Caramon2 schrieb:Auch andere Sachen sind mir wichtig und wären unwiederbringlich weg.
Ist eben einfacher als Distribution und verwendete Software im Detail aufzuzählen. 😉Caramon2 schrieb:Mich nervt einfach, dass viele von "Linux" sprechen, obwohl es meistens nur Ubuntu betrifft.
Das ist kein Vanilla Gnome (44.x) im gezeigten Ausschnitt. Ein dauerhaft sichtbares Dock unten hatte auch 43 nicht.Caramon2 schrieb:(…)MichlFranken-Video (…) Vanilla-Gnome (…)
Der war gut!Caramon2 schrieb:Vorletztes Jahr bekam ich sogar mal eine Mail, dass jemand in seinem Bekanntenkreis allen mitgeteilt hat, dass Linux 2025 eingestellt wird!
Vermutlich bezog sich das auf Ubuntu 20.04 LTS.
Fast so gut wie der von Ralph Schmitz' Mutter, die ihrem Sohnemann kleinlaut eingestehen mußte:
"Ich habe das Internet gelöscht!"
Garmor
Commander
- Registriert
- Mai 2021
- Beiträge
- 2.752
Er sagt sogar die beiden verwendeten Erweiterungen an.SE. schrieb:Das ist kein Vanilla Gnome (44.x) im gezeigten Ausschnitt. Ein dauerhaft sichtbares Dock unten hatte auch 43 nicht.
- Registriert
- Dez. 2021
- Beiträge
- 1.045
Ich denke ein eigener Artikel über (freie/alternative) Office Suiten wäre angebrachtnazgul77 schrieb:Ich vermisse im Abschnitt zu Office-Software Hinweise auf Softmaker Office und OnlyOffice
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 8.703
Office ist eh overrated. Bei der Textverarbeitung verhaspeln sich "alle", weil logische Struktur und Aussehen durcheinander gewürfelt werden (noch immer sieht man Dinge wie das Überschriften "fett" geschrieben werden, statt Formatvorlagen zu benutzen oder das mit Tabs und Leerzeichen herumformatiert wird).Kaito Kariheddo schrieb:Office Suiten wäre angebracht
Tabellenkalkulation ist nützlich, wird aber mit GNUmeric und Co ganz gut abgedeckt.
Und Power-Point ... naja. Wenn ich sehe, das irgendwie wer was mit Power-Point macht ist das schon ein sicherer Indikator dafür, das der Vortrag schlecht wird. :-)
Disclaimer: Vorsicht. Posting kann Spuren von Polemik enthalten ;-)
sedot
Vice Admiral
- Registriert
- Nov. 2017
- Beiträge
- 6.702
Wunderbar, hör ich nur nicht wenn der Ton aus ist – Untertitel habe ich keine gesehen.Garmor schrieb:Er sagt sogar die beiden verwendeten Erweiterungen an.
Hyourinmaru
Lt. Commander
- Registriert
- Feb. 2010
- Beiträge
- 1.459
Dann würde ich in einem solchen Artikel gerne auch etwas über die Kompatibilität zu Microsofts Open XML-Formate, sprich DOCX, XLSX und PPTX, in den alternativen Suiten lesen. Mir geht es da vorrangig um so Dinge wie Formatierung, Formate, Absätze, Vorlagen, Bedingte Formatierung und dergleichen. Also so Sachen, an denen man die Kompatibilität tatsächlich sehen bzw. nicht sehen kann.Kaito Kariheddo schrieb:Ich denke ein eigener Artikel über (freie/alternative) Office Suiten wäre angebracht![]()
Caramon2
Lt. Commander
- Registriert
- Jan. 2004
- Beiträge
- 1.686
Wenn ich mich mit etwas neuem beschäftige, teste ich es gründlich:7vor10 schrieb:Ganz im Ernst: man sollte lieber gar nicht erst versuchen, ein OS oder Programm auf theoretische Grenzsituationen hin zu prüfen. Man sollte sich mit den Fehlern begnügen, die man unfreiwilligermaßen im alltäglichen Gebrauch zu Tage fördert.
1. Wie soll man die Grenzen ausloten, wenn man sie nicht überschreitet?
2. Wenn ich die Probleme und Schwächen kenne, kann ich sie vermeiden, oder weiß wie ich es wieder hinbekomme.
Stell dir vor, du brauchst deinen PC dringend, aber plötzlich passiert irgendwas, was dich unvorbereitet trifft: Du stehst auf dem Schlauch und musst erst suchen, wie (oder ob überhaupt) man es hinbekommt. - Für mich wäre es dagegen vielleicht nur eine kleine Fingerübung, da ich mich im Vorfeld damit beschäftigt habe: Falls es mir überhaupt passiert und es nicht zu den Sachen gehört, wo ich weiß wie man sie vermeidet.
Besser vorbeugen, als auf die Schuhe kotzen.
Das kann man mit "sudo du -sBM" ermitteln.7vor10 schrieb:Spätestens nach dem zweiten Snapshot ist die Partition schon wieder voll, obwohl nur das System als solches inkludiert ist. Und obwohl unveränderte Objekte ja nur als Hardlinks einbezogen werden. Bei den ständigen System-Updates ändert sich aber anscheinend mehr als man denkt.
Ich sichere meine Systempartition (quasi als Snapshot-Ersatz) bei jeder relevanten Änderung auf die 2. int. SSD, was ich als "Quick & Dirty Backup" bezeichne (hatte ich hier schon ein paar Mal erwähnt).
Momentan sind dort 6 Sicherungsstufen. Hier die Belegung+Komprimierung (inkl. der Sicherungsskripte):
Code:
# du -sBM S{6..1}
8436M S6
69M S5
1M S4
1447M S3
1278M S2
106M S1
# compsize S{6..1}
Processed 1281098 files, 167532 regular extents (772665 refs), 640122 inline.
Type Perc Disk Usage Uncompressed Referenced
TOTAL 57% 6.4G 11G 50G
none 100% 3.6G 3.6G 13G
zstd 37% 2.8G 7.6G 36G
# cat AktualisierungB.sh
#!/bin/bash
espeak-ng -vde "Bitte Passwort." &
sync;sudo echo
time sudo rsync -vaxH --del --exclude '.cache/*' --exclude '/home/*' --exclude '/tmp/*' --exclude '/var/tmp/*' --exclude '/var/log/*' --exclude '*.log' --exclude '*.old' --exclude '*_old' / S1/
sudo touch S1
sync;sudo fstrim -v .
espeak-ng -vde "Datensicherung abgeschlossen." & read -p [Enter]
# cat SicherungB.sh
#!/bin/bash
zs=9 # Zahl der Sicherungsstufen
espeak-ng -vde "Bitte Passwort." &
mv S$zs S-bak 2>/dev/null
for ((z=$zs;z>=1;z--));do mv S$z S$((z+1)) 2>/dev/null;done
if [ ! -d S-bak ];then mkdir S1;else mv S-bak S1;fi
sync;sudo echo
time sudo rsync -vaxH --del --link-dest=../S2/ --link-dest=../S3/ --exclude '.cache/*' --exclude '/home/*' --exclude '/tmp/*' --exclude '/var/tmp/*' --exclude '/var/log/*' --exclude '*.log' --exclude '*.old' --exclude '*_old' / S1/
sudo touch S1
sync;sudo fstrim -v .
espeak-ng -vde "Datensicherung abgeschlossen." & read -p [Enter]
Wie gesagt: Das war der erste Test der ersten Version davon und kann auch nur ein dummer Zufall sein.7vor10 schrieb:Auf so eine eher theoretische Grenzanforderung war es aber nicht vorbereitet. Statt sozusagen einfach nur '1-0=1' zu rechnen, hat es versucht, irgendeinen vorherigen Zustand auf Teufel komm raus zu generieren. Und das ist ihm in gewisser Weise sogar gelungen. Denn ein zerschossenes Windows entspricht funktional in etwa einem noch gar nicht installierten Windows.![]()
Mich hat das dazu gebracht es zu hinterfragen und ich bin schnell zu den Schluss gekommen, das ich es besser nicht nutzen werde (und es auch nie wieder getestet habe), weil nicht ersichtlich ist, was genau es macht.
Ich meine, ich hätte das mit "vielleicht" eingeschränkt: Zumindest war es nicht als absolute Aussage gemeint, sondern als Hinweis, dass es schnell dazu kommen kann: Aus Unkenntnis, Bequemlichkeit, oder was auch immer.andy_m4 schrieb:"Deine Leute" vielleicht. Aber dann sag es auch so. Und versuch nicht, daraus etwas Allgemeingültiges zu machen.
Die Partitionierung ist ja schnell erstellt, da ich das (wie geschrieben) im Terminal mache und mir die nötigen Befehlszeilen aufbewahre.andy_m4 schrieb:Normalerweise ist das bei der Art von Dateisystemen so, das wenn Du stumpf ne File-basierte Sicherung hast Du natürlich erst wieder die alte Subvol-Struktur herstellen musst, bevor Du da zurück sichern kannst. Exakt das selbe Problem hast Du aber auch, wenn Du Deine Datei auf verschiedene Partitionen verteilt hast. Da musst Du auch die Partitionen anlegen, bevor Du die Ordner/Dateien zurück kopierst, sonst sind die Partitionen natürlich nicht da.
Aber das ist ja sowieso nur die Ausnahme.
Üblicherweise muss man ja nur neu formatieren (wie gesagt, habe ich auch die Befehle inkl. der passenden UUIDs aufbewahrt), wenn man sich das Dateisystem zerschossen hat (genau darum geht es ja: weil die Snapshots dabei mit zerschossen wurden) und braucht nur eine richtige Sicherung per rsync wiederherstellen: Das funktioniert mit allen Dateisystemen und dieses @-Zeugs würde das nur verkomplizieren, weshalb die zu den Sachen gehören, die ich vermeide: s. o.
Und nochmal: Alles was ich zu btrfs & Co. behaupte, basiert auf meinen eigenen, reproduzierbaren Erfahrungen bei der tatsächlichen Anwendung: Das sind keine theoretischen Überlegungen.
Wer sagt "ich habe damit keine Probleme", hat nicht gründlich genug getestet, oder sie vielleicht noch nicht bemerkt, da sich ja gezeigt hat, dass man sich auf btrfs-check nicht verlassen kann, da es (wie geschrieben) noch nicht mal einen bereits aufgetrenen Fehler findet, wenn man es die beschädigte Dstei direkt prüfen lässt.
Wie ich mein QnD-Backup (s. o.):Kuristina schrieb:Ich nutze auch Snapshots (btrfs), allerdings nur direkt vor einem Update. Sonst nicht.
Wobei ich die aktuelle Sicherungsstufe vor dem System-Update aktualisiere und nach dem Update + erfolgreichen Reboot (wenn es auch keine anderen Auffälligkeiten gibt) erstelle ich gleich eine neue Sicherungsstufe, um auch den aktuellen Stand gesichert zu haben.
Wenn sich dann weiterhin nichts ergibt, erstelle ich auch neue Sicherungsstufen auf einer oder mehreren ext. Sicherungsplatten (je nachdem wie gravierend die Updates waren), die dann auch die Homepartition beinhaltet.
Wenn das komplette NAS durch Überspannung gegrillt wird, ist trotzdem alles weg.Donnerkind schrieb:Mein NAS enthält meine Medienbibliothek. Aufgrund der Größe habe ich kein Backup davon, sondern ich verlasse mich auf das RAID, dass mir durch Hardwareausfall kein Datenverlust entsteht.
Eine kostenlose Lösung wäre, das NAS leicht zugänglich zu halten und komplett abziehen, wenn du das Haus verlässt. - Und natürlich auch wenn du @Home bist und ein Gewitter aufzieht.
Btw:
Dort sehr ich im Zweifelsfall nach (Plz/Gebiet ggfs. anpassen):
http://www.unwetterzentrale.de/uwz/getwarning_de.php?plz=32052&uwz=UWZ-DE&lang=de
https://www.wettergefahren.de/DWD/wetter/radar/Webradar_Nordwest.jpg
Aua! - Aber besser, als wären sie weg gewesen.Donnerkind schrieb:Eines Tages habe ich versehentlich das falsche Verzeichnis gelöscht - 270 GB Videos waren weg! Ich bekam Schweißnacken und habe mich sofort belesen, ob man da was machen kann. Bei ext4 gibt es ja schließlich auch ein undelete. Wie sich herausstellte, kann man auf die letzten x Transaktionsstände von ZFS zugreifen und sie mounten. Das habe ich getan (was jeweils einen vollen Scrub von 10,5 Stunden enthielt).
An die Möglichkeit Snapshots als Undelete zu nutzen, hatte ich noch nicht gedacht. Das macht natürlich Sinn, wenn der zusätzlichen belegte Platz nicht stört.Donnerkind schrieb:Kurz danach habe ich mir automatische Snapshot-Erstellung eingerichtet: stündlich, täglich, wöchentlich, monatlich gestaffelt. Eigentlich Overkill, denn ich schreibe nur extrem wenig drauf rum. Aber es kostet nix bis auf den Plattenplatz, wenn man wirklich mal Daten löscht und die dann noch bis zu einem halben Jahr in alten Snapshots liegen bleiben).
Dafür nutze ich die Kopie des Produktivsystems auf der ext. SSD, die ich entsprechend oft aktualisiere: Die steht direkt neben dem PC in Höhe des Front-USB und ist schnell abgeschlossen.
Ich habe übrigens alles in min. dreifacher Ausfertigung: Original + min. zwei (max. fünf - davon eine bei meiner Mutter) Sicherungen.
Ergänzung ()
Bzgl. dem rsync-GUI gilt das gleiche, was ich hier im Thread zum FSArchiver-GUI geschrieben habe: Macht es komplizierter und verhindert, dass man die eigentliche Funktionsweise begreift.SE. schrieb:Naja, rsync muss ich erst konfigurieren, snapper ist schon fertig und funktionsfähig. Insofern, ja, aus meiner Sicht ist der Aufwand höher. Nachdem ich mir die (bei Wikipedia verlinkten) GUIs für rsync angeschaut habe erscheint es mir nicht so einfach, als dass ich mich damit im Moment auseinandersetzen will.
Ich nutze das mit "sudo rsync -vaxH --del (Quelle) (Ziel)“:
- verbose
- archive (Berechtigungen usw. bleiben erhalten)
- nur das aktuelle Dateisystem (keine gemounteten Partitionen)
- Hardlinks
- nicht mehr vorhandene Dateien werden gelöscht
Sollen unveränderte Dateien aus der vorherigen Sicherungsstufe per Hardlinks übernommen werden, muss man per "--link-dest" darauf verweisen, wobei die Pfadangabe relativ sein muss. - s. oben das Skript
Er zeigt dort, wie er Gnome für sich praktikabel einrichtet.SE. schrieb:Das ist kein Vanilla Gnome (44.x) im gezeigten Ausschnitt. Ein dauerhaft sichtbares Dock unten hatte auch 43 nicht.
Da mir LO für meinen Bedarf zu groß ist (und oft häufiger aktualisiert wird, als ich es überhaupt nutze) habe ich mich letztens nach (gravierend kleineren) stand alone Alternativen umgesehen und bin auf Abiword (Abi hat nichts mit Abitur zu tun, sondern soll in irgendeiner Sprache "frei" heißen) und Gnumeric gestoßen:andy_m4 schrieb:Tabellenkalkulation ist nützlich, wird aber mit GNUmeric und Co ganz gut abgedeckt.
Gnumeric kann LO direkt ersetzen und hat auch keine Probleme meine LO-Tabellen zu öffnen.
Abiword hat mit LO-Dokumenten leider kleinere Probleme und erstellt zwar kompatiblere ePub (als LO), macht bei Formatierung aber Probleme: Im ePub fehlen plötzlich Leerstellen, irgendwo im Text ist was plötzlich fett geschrieben, usw. - Das muss ich mir erst noch genauer ansehen.
Da das auch so bleibt, wenn ich das ePub mit Sigil öffne, liegt es nicht am Dokumentenbetrachter (xreader).
Zuletzt bearbeitet:
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 8.703
Ändert nichts daran, das es nicht als Argumentation gegen Subvols taugt.Caramon2 schrieb:Die Partitionierung ist ja schnell erstellt, da ich das (wie geschrieben) im Terminal mache und mir die nötigen Befehlszeilen aufbewahre.
Im Gegenteil.
Da schreibst Du es Dir auf. Bei Subvols aber nicht und das muss dann als Argument gegen Subvols herhalten.
Passt einfach nicht.
Das wäre aber immer noch nur ein Argument gegen btrfs.Caramon2 schrieb:Alles was ich zu btrfs & Co. behaupte, basiert auf meinen eigenen, reproduzierbaren Erfahrungen bei der tatsächlichen Anwendung: Das sind keine theoretischen Überlegungen.
Nicht gegen Snapshots. Nicht gegen Subvols.
Caramon2
Lt. Commander
- Registriert
- Jan. 2004
- Beiträge
- 1.686
Dazu fällt mir gerade ein: Der RAM-Cache des Browsers wird afaik gelöscht, wenn man den Browser schließt. Der ins RAM umgesymlinkteandy_m4 schrieb:Das klingt ein bisschen sinnlos. Der Cache ist eh unterteilt in in-Memory und on-disk. Und wenn ich will, das der mehr im RAM cached als auf Disk, dann würde ich "maxdisk" runterregeln und "maxram" hoch.
LochinSocke
Banned
- Registriert
- Aug. 2021
- Beiträge
- 1.087
Ich weiß garnicht warum
Es drängt sich manchmal schon der Gedanke auf du trollst...
Ich habe damit keine Probleme
Caramon2 schrieb:Wer sagt "ich habe damit keine Probleme", hat nicht gründlich genug getestet, oder sie vielleicht noch nicht bemerkt, da sich ja gezeigt hat, dass man sich auf btrfs-check nicht verlassen kann, da es (wie geschrieben) noch nicht mal einen bereits aufgetrenen Fehler findet, wenn man es die beschädigte Dstei direkt prüfen lässt.
Es drängt sich manchmal schon der Gedanke auf du trollst...
Ich habe damit keine Probleme
@Caramon2 meldest du denn auch die ganzen Auffälligkeiten, die dir beim Testen auffallen, an die Entwickler? Wäre schön damit diese gefixt werden können 😉
ich selbst nutze seit letztem Jahr BTRFS auf meinem Live System. Bin super zufrieden mit den Möglichkeiten, die es bietet. Gerade in Verbindung mit Arch Linux finde ich die Snapshots klasse. Ich hatte zum Beispiel vor ein paar Wochen das Problem, das ein Gtk4 Update Fehlerhaft war.
Ext4 habe ich nur auf meiner Spiele SSD aufgrund von case-folding. Aber sehe das jetzt nicht als Nachteil. Ich bin eher froh das es mehrere Möglichkeiten unter Linux gibt.
Wichtige Dateien habe ich keine auf dem PC. Liegt alles auf NAS + Backup NAS + Eigene Cloud. Somit sind die Daten für mich überall erreichbar, was mir wichtig ist.
ich selbst nutze seit letztem Jahr BTRFS auf meinem Live System. Bin super zufrieden mit den Möglichkeiten, die es bietet. Gerade in Verbindung mit Arch Linux finde ich die Snapshots klasse. Ich hatte zum Beispiel vor ein paar Wochen das Problem, das ein Gtk4 Update Fehlerhaft war.
Ext4 habe ich nur auf meiner Spiele SSD aufgrund von case-folding. Aber sehe das jetzt nicht als Nachteil. Ich bin eher froh das es mehrere Möglichkeiten unter Linux gibt.
Wichtige Dateien habe ich keine auf dem PC. Liegt alles auf NAS + Backup NAS + Eigene Cloud. Somit sind die Daten für mich überall erreichbar, was mir wichtig ist.
Caramon2
Lt. Commander
- Registriert
- Jan. 2004
- Beiträge
- 1.686
Wie kann man das nicht verstehen?andy_m4 schrieb:Ändert nichts daran, das es nicht als Argumentation gegen Subvols taugt.
Eigene Partitionen kann man beliebig sichern, formatieren und wiederherstellen, auch von einem beliebigen Live-System aus, unabhängig von den anderen Partitionen.
Z. B. habe ich hier die Systempartition ins RAM gesichert:
- Win+Shift+E ist bei mir “pkexec thunar" und ein damit geöffnetes Terminal hat gleich Rootrechte
- "rsnv" ist ein Skrips, dass "rsync -axH --del $@" (no v) mit time ausführt)
- ich experimeniere momentan damit, inaktive Fenster etwas durchscheinend zu lassen, damit ich die besser erkenne
Und nach Neuformatierung (ich wollte was ausprobieren) wieder zurück:
Artix-rsync-Restore.mkv
Außerdem brauchst man sich doch nur die fstab abzusehen, um zu sehen dass Subvols und Snspshots komplizierter sind.
Eine "normale" Installation ist wesentlich intuitiver zu handhaben und es ist egal welches Dateisystem dort eingesetzt wird.
Wozu auch?andy_m4 schrieb:Da schreibst Du es Dir auf. Bei Subvols aber nicht und das muss dann als Argument gegen Subvols herhalten.
Die haben nur Nachteile (was ist mit ineinander verschachtelten Subvol und/oder Snapshots: damit soll es doch irgendwelche Probleme geben, habe ich mal gelesen), bzgl. Swapfiles und/oder vHDs muss man irgendwas beachten, sonst könnte es zu Datenverlusten führen, auch bzgl. Sparse liest wann Warnungen, usw.
Nutzt man Dateisysteme ohne solchen "Firelefanz", braucht man sowas nicht beachten, sondern es funktioniert einfach und lässt sich problemlos sichern und voll funktionsfähig wiederherstellen/kopieren/clonen.
Wenn z. B. irgendjemand mit so einer Installation Probleme hat, würde ich mich dort schnell hineinfinden können um zu helfen. Ist es dagegen mit LVM oder diesem @-Zeugs installiert worden, müsste ich passen, da es mir zu unübersichtlich ist und ich nicht weiß, was für Stolpersteine dadurch vielleicht entstanden sind.
Wenn man eine möglichst einfache, übersichtliche, pflegeleichte (auch für Außenstehe, die ggfs. helfen möchten) Linux-Installation habe will, installiert man es am besten im BIOS-Modus auf MPT, mit separater System- und Home-Partition und nutzt kein btrfs, weil GUI-Installer dann (üblicherweise ungefragt) dieses @-Zeugs einrichten.
Das ist meine ausdrückliche Empfehlung für Einsteiger: Macht es euch nicht unnötig kompliziert und anderen nicht unnötig schwierig euch bei Bedarf zu helfen.
Ergänzung ()
Ich wüsste nicht, war ich da melden sollte: Subvols/Snapshots sind ja keine Bugs, sondern ich halte prinzipiell nichts davon und dafür, dass Snapshots oft als Backup-Ersatz dargestellt bzw. verstanden wird, können die nichts.ufopizza schrieb:@Caramon2 meldest du denn auch die ganzen Auffälligkeiten, die dir beim Testen auffallen, an die Entwickler? Wäre schön damit diese gefixt werden können 😉
Höchstens dass der Fehler in der beschädigten Datei reproduzierbar nicht gefunden wurde (auch nicht nach reboot, auch nicht von mehreren Live-Systemen aus), war ein Bug, aber was hätte das gebracht, das zu melden? - Das hätte die ja nicht reproduzieren können, dazu hätten sie die Platte gebraucht.
Die hatte ich aber gleich vollständig mit Nullen überschieben, da ich auf einen Hardwareschaden prüfen wollte: Davor und danach hatte ich SMART kontrolliert und da ohne Auffälligkeiten, habe ich sie mit xfs formatiert, die Sicherungen wieder drauf kopiert und anschließend nochmal SMART kontrolliert: Weiterhin nichts auffälliges.
Btw:
Kennt jemand eine Möglichkeit, den kompletten Inhalt eines Laufwerks dateiweise nach /dev/null zu kopieren? - Um zu prüfen ob alle Dateien vollständig lesbar sind.
Also z. B. (wenn man im Hauptverzeichnis des Laufwerks ist) "cp -av * /dev/null" - Das funktioniert leider nicht und auch per rsync habe ich keine Möglichkeit gefunden.
Im Internet bin ich nur auf Threads gestoßen, wo das gleiche gefragt wurde, aber auf keine Lösung.
Zuletzt bearbeitet:
sedot
Vice Admiral
- Registriert
- Nov. 2017
- Beiträge
- 6.702
Ich zitiere bewusst nur selektiv, das was du vorschlägst und ggf. selbst nutzt ist mir zu kompliziert.Caramon2 schrieb:(…)Macht es komplizierter (…)
Falls der Datenträger nicht mehr funktioniert sind mir die dort gespeicherten Daten egal. Im Falle, dass das OS Fehler nach einem Upgrade produziert reicht (mir) die schon vorhandene Snapshot-Funktion.
Da keine meiner (persönlichen) Daten Teil der Snapshots sind muss ich mich auch nicht weiter mit den @ subvolumes auseinandersetzen, meine Daten sind auf dem größten, mehr muss ich nicht wissen falls ich von extern darauf zugreifen wollen würde. Mysteriösen Datenschwund hatte ich bisher keinen.
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 8.703
Ich bin ja generell kein Fan von klassischen Textverarbeitungsprogrammen.Caramon2 schrieb:bin auf Abiword
Ich finds besser, wenn man so im Latex-Style mit expliziten logischen Markup arbeitet. Wo dann Inhalt und Aussehen auch strikt voneinander getrennt ist. Unter der Haube arbeitet ja Open-Document letztlich genauso.
Dafür ist aber auch die ganze Zeit der RAM blockiert selbst wenn der Browser gar nicht offen ist.Caramon2 schrieb:Dazu fällt mir gerade ein: Der RAM-Cache des Browsers wird afaik gelöscht, wenn man den Browser schließt. Der ins RAM umgesymlinkteDiskcache bleibt dagegen erhalten, solange man nicht rebootet.
Und ob das Hit-Miss-Verhältnis das rechtfertigt, das ist dann die Frage.
Und wenn mir wichtig ist Cache zu erhalten (weil es sich in meinem Szenario positiv bemerkbar macht), dann tue ich das auf nen persistenten Speicher wo es dann sogar ein Reboot überlebt.
Ja. Das hab ich wohl verstanden.Caramon2 schrieb:Eigene Partitionen kann man beliebig sichern, formatieren und wiederherstellen, auch von einem beliebigen Live-System aus, unabhängig von den anderen Partitionen.
Und ja, da hast Du recht.
Mein Problem ist Folgendes: Das Du versuchst gegen Snapshots und Subvols zu argumentieren, aber das dann Dir immer alles so zurecht legst, das es für Snaps/Subvols blöd aussieht und für Dich gut.
Letztens halt noch, das Snapshots kein Ersatz sind für Backups (was nie jemand ernsthaft behauptet hat; aber Du brauchtest ja irgendwas, damit Du gegen Snapshots wettern kannst, als wird erst mal so getan als ob das empfohlen wird), weil bei Dir schlägt häufig der Blitz ein und dann sind die Festplatten im Eimer.
Plötzlich gilt das nicht mehr (wo Du für Partitionen argumentieren willst) und dann wird gesagt: Bei Partitionen kann ich einzelne Partitionen wieder herstellen.
Mein Standpunkt ist da ziemlich eindeutig: Alles hat so seine spezifischen Vor- und Nachteile und je nach Anwendungsfall passt das eine besser und mal das Andere.
Und da nützt das wenig, wenn Du immer wieder ankommst mit: "Ja aber wenn ABC dann ist EFG blöd und nur XYZ das einzig Wahre."
(ist jetzt ein bisschen überspitzt formuliert aber so kommt es hier an)
Und sorry, aber der Diskussion bin ich ein wenig überdrüssig.
Ach ja ?Caramon2 schrieb:Außerdem brauchst man sich doch nur die fstab abzusehen, um zu sehen dass Subvols und Snspshots komplizierter sind.
Auf dem Rechner an dem ich hier sitze, da sind fast 40 "Subvols".
Meine /etc/fstab hat 6 Einträge, wovon 4 Netzlaufwerke sind.
Jaja. Nur Nachteile. Jeder der sowas einsetzt ist ein Trottel.Caramon2 schrieb:Die haben nur Nachteile
Irgendwo gelesen ist so ne ähnliche Kategorie wie "Der Cousin eines Vetter meines Schwagers hat erzählt...."Caramon2 schrieb:damit soll es doch irgendwelche Probleme geben, habe ich mal gelesen
Wie gesagt. Zu btrfs kann ich wenig beitragen. Hab selbst keine Erfahrung wie wackelig das ist oder nicht. Daher mache ich keine Aussage dazu.
Ich beziehe mich generell auf Snapshots und Subvols und nicht auf irgendeine konkrete Implementierung.
Das wäre echt schön, wenn Du da auch mal differenzieren würdest.
Kann man so machen. Das das in jeder Situation "am besten" ist, das wage ich jetzt zu bezweifeln (ich selbst hab z.B. auch keine getrennte Home-Partition).Caramon2 schrieb:installiert man es am besten im BIOS-Modus auf MPT, mit separater System- und Home-Partition
Aber irgendwie hast Du ja offensichtlich den Hang dazu Deine Vorgehensweise als die alleinig beste darzustellen und alles andere ist nutzloser Schrott.
Da muss man aber schon arg wenig RAM haben, dass dadurch was anderes blockiert ist. 🙂andy_m4 schrieb:Dafür ist aber auch die ganze Zeit der RAM blockiert selbst wenn der Browser gar nicht offen ist.
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 8.703
Caramon2 schrieb:Kennt jemand eine Möglichkeit, den kompletten Inhalt eines Laufwerks dateiweise nach /dev/null zu kopieren? - Um zu prüfen ob alle Dateien vollständig lesbar sind.
find /path/to/mountpoint/ -type f -exec cp {} /dev/null \;Von "was anderes blockiert" steht da ja auch gar nichts.Kuristina schrieb:Da muss man aber schon arg wenig RAM haben, dass dadurch was anderes blockiert ist.
Ähnliche Themen
- Antworten
- 1.140
- Aufrufe
- 53.411
- Antworten
- 4
- Aufrufe
- 1.208
- Antworten
- 14
- Aufrufe
- 1.577
- Antworten
- 9
- Aufrufe
- 2.099