Win11 in freien unbenutzten Bereich installieren.

linuxnutzer

Captain
Registriert
Dez. 2011
Beiträge
3.391
Ich kämpfe mit Partitionsgrenzen, vielleicht wegen einer fehlerhaften Controller-FW. Da will ich jetzt gar nicht darauf eingehen. Idee war, Linux zuerst zu installieren und Win darf sich dann den freien Bereich nehmen wie es will. Es besteht der Verdacht, dass Linux falsche Paritionsgrenzen verwendet, wenn davor Win installiert war, aber nur bei diesem 1 PC, bei anderen nicht.

Es sieht so aus;

Code:
Nummer  Anfang  Ende    Größe   Dateisystem  Name        Flags
 1      1049kB  1128MB  1127MB  fat32                    boot, esp
 5      217GB   324GB   107GB   fat32        WINDATEN    msftdata

Also Partition 2-4 ist nicht vorhanden.

Code:
Gerät          Anfang       Ende  Sektoren  Größe Typ
/dev/sda1        2048    2203647   2201600     1G EFI-System
/dev/sda5   423204864  632920063 209715200   100G Microsoft Basisdaten

zwischen 1 und 5 kann Win machen was es will. Kalkuliert habe ich so:

Code:
#sudo sgdisk -a 2048 -I -n 2::+16M -t 2:0C01 /dev/sda
#sudo sgdisk -a 2048 -I -n 3::+200G -t 3:0700 /dev/sda
#sudo sgdisk -a 2048 -I -n 4::+751M -t 4:2700 /dev/sda

Die 200GiB in 3 sind also binär.

Ich weiß nun nicht, ob das dezimal oder binär ist was man bei der Win-Installation angibt. Ich will auf jeden Fall nicht, dass Win vorhandene Partitionen verschiebt oder ändert. Die 1G für EFI soll WIN nehmen, hat bisher noch nie funktioniert.

Nofalls könnte ich auch eine Partition mit 195G anlegen und den Rest verschenken.

Wie gehe ich am besten vor?
 
Zuletzt bearbeitet:
BFF schrieb:
Du willst ein Windows nach einem Linux installieren?

Ja, weil es umgekehrt zu Partitionierungsproblemen kommt.

BFF schrieb:
Ist das in deinem alten Thred immer noch gegeben?

Was meinst du? Dieser Thread im Linux-Bereich hängt damit zusammen und da siehst du auch bei meinen Fotos, dass die Partitionsgrenzen anders sind als erwartet. Der letzte Schritt ist jetzt, dass es ohne Windows passt. Aber ich will nicht Win die Schuld geben, es könnte auch ein Hardwareproblem sein. Falsche Partitionsgrenzen gibt es bei allen externen Laufwerken, ob das bei Verschlüsselung schadet ist eine andere Sache.

BFF schrieb:
Ich geh, nach etwas Lesen davon aus, dass es nicht die Hardware ist bei Dir sondern Dein Tun.

Du kannst gerne sagen was ich falsch mache, sonst hilft das nichts.

Eine Antwort wie ich jetzt Win installieren soll, ohne, dass Linux dabei kaputt geht wäre sehr hilfreich und die Win-Installation passt nun garantiert nicht zu Linux.

Ich kann es natürlich auch probieren, aber ich taste mich schon sehr langsam an das Problem heran und wie im anderen Thread geschrieben wurde, ist durchaus ein Bug bei der Installationsroutine möglich. Ich denke, ich habe 1 (swap) von 2 Problemen gelöst.

Wenn Win eine andere Logik bei den Partitionsgrenzen hat, dann beeinflusst das vorhandene Partitionen nicht.
 
Zuletzt bearbeitet:
linuxnutzer schrieb:
wie ich jetzt Win installieren soll, ohne, dass Linux dabei kaputt geht

Das ist exakt das Experiment was ich niemals vollzogen habe wenn es auf einem Datentraeger sein soll. Linux auf einer SSD und das Windows auf einer anderen ja ok. Linux nach einem W11 auch ok.

Ich persoenlich vermute das Deine Partitionierungsaktionen absolut nicht zutraeglich sind fuer Dein Vorhaben.

Den Weg anders rum brauch ich nicht erklaeren. Der ist gut beschrieben.
 
Grundsätzlich interessiert Windows andere OSes nicht. Es macht das bei der Installation, was es für richtig hält.

Willst du es wirklich trennen. Nimm zwei Datenträger und trenne den einen, der gerade nicht genutzt wird oder nutze eine WintoGo Installation auf einem Wechseldatenträger.

Erst Windows dann Linux sollte ohne Probleme gehen.
 
  • Gefällt mir
Reaktionen: aragorn92, Ja_Ge und BFF
linuxnutzer schrieb:
Eine Antwort wie ich jetzt Win installieren soll, ohne, dass Linux dabei kaputt geht

Ja verstehe ich nicht. Kaputtgeht. Du hast bei Windows überhaupt keine großen Steuerungsmöglichkeiten. Das fragt, auf welche Partition es soll, und das war es. Die vorhandene EFI-Systempartition wird wie selbstverständlich verwendet.
 
BFF schrieb:
Das ist exakt das Experiment was ich niemals vollzogen habe wenn es auf einem Datentraeger sein soll.

Eigentlich geht das sehr gut, wenn man nicht neu partitioniert. Ich musste das machen, da kein Update von 24H2 auf 25H2 angeboten wurde und ich nicht die verschlüsselten Linux-Partitionen löschen wollte.

BFF schrieb:
Ich persoenlich vermute das Deine Partitionierungsaktionen absolut nicht zutraeglich sind fuer Dein Vorhaben.

Schauen wir mal. Ich habe unter Linux das Problem, dass es immer wieder zu Schreibfehlern kommt. zum Glück ist das kein Produktiv-Rechner. Smart-Tests, etc sind völlig problemlos und der PC muss abgewürgt werden. Nachdem kürzlich mit einer nagelneuen SSD das gleiche Problem wieder kam, kein Schreiben auf die Root-Partition möglich, wurde ich noch nachdenklicher.

Es könnte aber eine Erklärung sein, dass dies dadurch passiert nachdem die Partitionsgrenzen nicht korrekt sind. Eigentlich kann ich da wenig falsch machen, solange ich die Installationsroutinen von Win und Linux verwende..Ich hatte bei kombinierten SSDs schon öfters die Fehlermeldung, dass die Partitionstabelle nicht stimmt. Auch dieses Mal.

EIn Test ergab nun, dass die Partitionstabelle ok ist, solange davor kein WIn installiert war. Also war meine Überlegung davor Win keine Partitionierung zu erlauben. Was noch nicht gesagt werden kann, ob ich jetzt auch wieder Schreibfehler haben werde, das passiert ja nur alle paar Monate.

BlubbsDE schrieb:
Erst Windows dann Linux sollte ohne Probleme gehen.

Leider nicht immer, kommt auf die Partitionierung an.

Volume Z schrieb:
Du hast bei Windows überhaupt keine großen Steuerungsmöglichkeiten. Das fragt, auf welche Partition es soll, und das war es

Die Frage war bzgl. der Größe. Es sieht danach aus, dass die Tabelle binäre Werte anzeigt und wenn man dann eine Partition anlegt, ist es dezimal.

Ich hatte etwas über 200 GiB freigelassen und dann 196000MB angelegt. Danach waren über 8GB verschenkt. Ok soll mir recht sein.

Es gibt 2 Möglichkeiten bzgl. der Partitionsgrenzen. Linux legt nach Win-Partitionen die Grenzen nicht richtig an oder der Controller liefert falsche Werte.

BlubbsDE schrieb:
Nimm zwei Datenträger

Alle SATA-Ports sind voll. Ich verwende Win am meisten zum Flashen von Hardware und Linux zum Testen von speziellen Dingen, wo ich den Produktiv-PC nicht verkonfigurieren will.

Volume Z schrieb:
Ja verstehe ich nicht. Kaputtgeht.

Das Problem ist, wenn ich eine knapp zu große NTFS.Partition anlegen will Neben UEFI gibt es ja noch andere für die Platz sein muss. Dann wird irgendwas geschrumpft.
 
Dann nimm nen USB Stick oder ne USB SSD und nutze WintoGo. Sonst wird das eine nicht ende wollenden Geschichte.
 
linuxnutzer schrieb:
Das Problem ist, wenn ich eine knapp zu große NTFS.Partition anlegen will Neben UEFI gibt es ja noch andere für die Platz sein muss.

Die müssen nicht Deine Sorge sein. Auch nicht eine genaue Partitionsgröße. Verwende einfach nicht zugeordneten Speicherplatz. Der wird auf keinen Fall überschritten.
 
Es hat jetzt eigentlich alles ganz gut funktioniert, bis auf den verschenkten Platz:

Code:
Gerät          Anfang       Ende  Sektoren  Größe Typ
/dev/sda1        2048    2203647   2201600     1G EFI-System
/dev/sda2     2203648    2236415     32768    16M Microsoft reserviert
/dev/sda3     2236416  402014207 399777792 190.6G Microsoft Basisdaten
/dev/sda4   402014208  403642367   1628160   795M Windows-Wiederherstellungsumge
/dev/sda5   423204864  632920063 209715200   100G Microsoft Basisdaten
/dev/sda6   632920064  639211519   6291456     3G Linux-Dateisystem

Von 403642367 bis 423204864 ist freier Platz.
Das ist also zwischen Windows-Wiederherstellungsumgebung und Laufwerk D:

Die bereits angelegten Partitionen wurden nicht verändert und das Linux-Installations-Log zeigt keine Fehler mehr(!) bei den Partitionsgrenzen, zB

Code:
Verifying /dev/sda7 size, expecting 118111600640 bytes, found 118111600640 bytes

Solche Werte hatten nach voriger Windows-Installation nicht gepasst. Da das aber nicht bei allen PCs nicht passt, wenn man zuerst mit Windows installiert / partitioniert, schließe ich, dass dies ein Spezialfall mit diesem (aten) PC ist.

Meine Empfehlung ist daher bei Problemen mit der Partitionierungsgrenze: Das kann ja fatal sein, wenn Partitionen verschlüsselt sind. Ich hatte 1 verloren, das ist aber ein anderes Thema und letztlich kein Problem, da Backup vorhanden.

Zuerst also Linux-Installation mit Anlegen aller Partitionen für Linux und Windows mit sgdisk. Sgdisk dürfte das einzige Tools sein, dass die Grenzen am Anfang und Ende richtig setzt. Man suche dazu speziell bei Archlinux.
Live-System: Die EFI-Partition lassen, den Rest bzgl. Windows löschen, also

Microsoft reserviert
Microsoft Basisdaten (dort wo Win installiert wird)
Windows-Wiederherstellungsumge

Dann die Partition für Windows minimal kleiner machen. Von 200GB auf 196GB war zuviel. Vielleicht kann man auch die 200 lassen, die ich hatte. Unter Linux war es binär, unter Win dann vermutlich letztlich dezimal.

Bei den Installationen im UEFI immer passend BBS anpassen, wenn es diese Einstellung beim Mobo gibt.

Sogesehen, partitioniere ich "extern", installiere dann Win und zum Schluss Linux. Umgekehrt braucht es mehr Handarbeit, aber funktioniert grundsätzlich auch.
 
Zuletzt bearbeitet:
Was immer du vorhast: Dual-Boot ist Technik von vorgestern. Heute nutzt man Virtualisierung
 
  • Gefällt mir
Reaktionen: Lotsenbruder und koech
Ich habe nur den Anfang des Threads überflogen, da ich das nicht nachvollziehen kann.

Ich hatte bisher keine Probleme, Windows 11 auf eine vorab erstellte Partitionierung zu installieren: Wie hier im Video gezeigt.

Inzwischen würde ich aber anders als damals partitionieren (s. meine Notizen unten):
  1. 1 GiB ESP (s. Solus-Thread)
  2. die 16 MiB Partition (angeblich für irgendwelche Verwaltungssachen)
  3. 127 GiB Windows
  4. Rest als D:
  5. keine Recovery-Partition (damit das mit auf C: kommt und keine Probleme verursachen kann)
Wichtig ist, dass nichts frei bleibt, damit der Windows-Installer nicht doch noch eine Recovery-Partition erstellt, oder anders daran herumpfuscht.

Beide ntfs-Partitionen wie hier beschrieben mit 16k-Custer.

Windows wird auf C: installiert, aber alles andere (wo es möglich ist) installiert man benutzerdefiniert nach D: (z. B. in D:\Programme\), damit so wenig wie möglich nach C: kommt, damit man davon schnell ein Image ziehen und bei Bedarf wiederherstellen kann. - D: kann man dagegen ganz normal Dateiweise sichern, z. B. mit Robocoy, oder (wesentlich effizienter und mehrstufig) mit Hardlink-Backup.

Um anschließend Linux dazu zu installieren, einfach D: entsprechend verkleinern um Platz dafür zu schaffen.

Wie man Zorin neben eine Standard-Windowsinstallation (keine Daten-Partition) installiert, hatte ich hier beschrieben. Mit anderen Distributionen funktioniert es vergleichbar, nur dass die ggfs. einen anderen Installer nutzen.



Hier meine Notizen dazu (in einen Editor kopieren und als reine Text-Datei speichert):
Code:
Vor der Windows-Installation ein Linux-Livesystem booten, das Ziellaufwerk löschen und ohne Recovery-Partition partitionieren (das kommt dann mit auf C:, so dass es bei Aktualisierungen nicht wieder zu Abbrüchen kommen kann, weil die Partition zu klein ist):

----------------------------------------
# GPT:
lw=/dev/sdX # "X" anpassen

# Laufwerk löschen:
sudo dd if=/dev/zero of=$lw oflag=direct bs=4M count=1 && blkdiscard -v $lw

# Laufwerk partitionieren:
sudo sgdisk -Ia32 -n0:1M:+1007M -t1:0xEF00 -n0:0:+16M -t2:0x0C01 -n0:0:+127G -t3:0x0700 -n0:0:0 -t4:0x0700 -p $lw

# Partitionen formatieren:
sudo mkdosfs -n ESP -F16 -s32 $lw"1"
sudo mkntfs -QL Windows -c16384 $lw"3"
sudo mkntfs -QL Daten -c16384 $lw"4"
----------------------------------------

*Wichtig* ist, dass anschließend alles bei dem es möglich ist benutzerdefiniert nach D: installiert wird (z. B. in D:\Programme\), damit C: möglichst klein bleibt, damit es möglichst schnell per Image gesichert und ggfs. wiederhergestellt werden kann.

…

Ist Windows installiert, im Suchfeld des Startmenüs "cmd" eingeben und mit Umschalt+Stgr+Enter starten, um das DOS-Fenster als Administrator zu öffnen.

Dort dieses ausführen:

----------------------------------------
powercfg /h off
chkntfs /t:0
reagentc /disable
----------------------------------------

1. Windows wird immer "sauber" heruntergefahren
2. wenn beim booten das Laufwerk geprüft werden soll, startet das sofort
3. Recovery wird deaktiviert und die Daten gelöscht, so dass es keine Fehler mehr verursachen kann
   (man kann es nötigenfalls immer noch vom ISO aus nutzen)

Anschließend dieses als Textdatei "Optimierungen.reg" speichern und importieren (es setzt die Uhrzeit auf UTC und optimiert ClearType):

----------------------------------------
Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\TimeZoneInformation]
"RealTimeIsUniversal" = dword:00000001

[HKEY_CURRENT_USER\Control Panel\Desktop]
"FontSmoothing" = "2"
"FontSmoothingType" = dword:00000002
"FontSmoothingGamma" = dword:00000578
"FontSmoothingOrientation" = dword:00000001
----------------------------------------


--------------------------------------------------------------------------------
# sgdisk-Optionen:

-n# = neue Partition (0 ist nächste Partitionsnummer:ab Anfang:freier Bereich)
-t# = Type: 0xEF02 = BIOS-Grub / 0xEF00 = ESP / 0x0700 = FAT/exFAT/NTFS
-p = Auflistung GPT

-h# = Hybrid-MBR (mehrere Partitionen (max. 3) durch Doppelpunkt getrennt)
-O = Auflistung Hybrib-MBR

-d# = Partition löschen
-Z = Partitionstabelle und Kopie vollständig löschen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und linuxnutzer
Caramon2 schrieb:

Das kann knapp werden, wenn man Windows auf eine neue Version aktualisiert. Ich habe daher lieber mehr genommen, da ich viel Platz auf der SSD verschenken kann.

Caramon2 schrieb:
D: kann man dagegen ganz normal Dateiweise sichern

Ich gebe auch fast alles auf D, was nicht Standard-Installation ist, allerdings formatiert als exfat. Da das ein reines Testszenario ist, sichere ich auch nicht.

Vielleicht weißt du zufällig wie man die fstab anpasst, damit alle User auf (ex)FAT schreiben können. Schon klar, hier OT, aber wäre nur 1 Zeile. Mit FAT für D habe ich weniger Probleme. Das sind aber nur unwichtige Daten bzw. heruntergeladene exe-Installationen.

Intereessant ist, dass du auch sgdisk verwendest. Das ist auch mein Fav.

Caramon2 schrieb:
da ich das nicht nachvollziehen kann

Ich auch nicht, aber ist so. Bei einigen PCs ist alles völlig problemlos.
 
linuxnutzer schrieb:
Das kann knapp werden, wenn man Windows auf eine neue Version aktualisiert. Ich habe daher lieber mehr genommen, da ich viel Platz auf der SSD verschenken kann.
Da es min. 50 GB verlangt, gehe ich davon aus dass es bei 64 GB erst recht genug Luft dafür hat.

Unter der Voraussetzung, dass man eben alles wo es möglich ist, benutzerdefiniert nach D:\Programme\ installiert, damit C: fur Sicherung/Wiederherstellung möglichst schlank bleibt.

linuxnutzer schrieb:
Ich gebe auch fast alles auf D, was nicht Standard-Installation ist, allerdings formatiert als exfat. Da das ein reines Testszenario ist, sichere ich auch nicht.
ntfs-16k ist in allen Belangen besser: exFAT ist langsamer (egal ob SDD, HDD, oder USB-Stick), mangels Journaling ist es fehleranfällig, bei Fehlern aufwändiger zu reparieren und es lässt sich weder verkleinern noch vergrößern. - Außerdem für SSDs relevat: Windows kann exFAT nicht trimmen! (Oder inzwischen doch? - Mein letzter Stand ist die 22H2, da danach der KI-Kram kam und ich das nicht im BS haben will.)

linuxnutzer schrieb:
Vielleicht weißt du zufällig wie man die fstab anpasst, damit alle User auf (ex)FAT schreiben können.
Was bedeutet "alle User"?

Weshalb überhaupt in der fstab? Man kann die Partition doch einfach im Dateimanager öffnen und dann gehört sie automatisch dem entsprechenden Nutzer, so dass es keine Probleme gibt. - Egal ob fat oder ntfs.

Ansonsten vermutlich mit "user,noauto" und dann per mount-Befehl im Autostart des jeweiligen Nutzers, damit es dessen Rechte bekommt. - Auch egal ob fat oder ntfs.

linuxnutzer schrieb:
Intereessant ist, dass du auch sgdisk verwendest. Das ist auch mein Fav.
Mir gefällt vor allem, dass man alles in eine einzige Zeile packen kann.

Es hatte zwar etwas gedauert bis ich den Syntax kapiert hatte (damals konnte man noch keine KI fragen), aber dann ist das ziemlich effizient.

linuxnutzer schrieb:
Ich auch nicht, aber ist so. Bei einigen PCs ist alles völlig problemlos.
PC ist Voodoo. :)
 
  • Gefällt mir
Reaktionen: Tanzmusikus und linuxnutzer
Caramon2 schrieb:
Da es min. 50 GB verlangt, gehe ich davon aus dass es bei 64 GB erst recht genug Luft dafür hat

Soweit die Theorie. Mir ist cchon passiert, dass zu wenig Platz nur für Download des neuen Win war. Da muss man dann nachhelfen und alles bereinigen. Ich habe das jetzt auf täglich eingestellt.

Aber ich verwende Win ja nur für Spezialfälle, meistens ist es Hardware flashen oder gerade Xiaomi-Handy Bootloaderfreischalten. Nervig sind echt die Intel-Grafikkarten. In kürzester Zeit schon 3-4x geflasht, aber sehr gutes P/L-Verhältnis bei opencl

Caramon2 schrieb:
ntfs-16k ist in allen Belangen besser:

Da stimme ich zu, die Frage ist, ob man es unbedingt braucht bzw. wie man unter Linux damit einfach nach der Installation klar kommt.

Ich kann im Thread nicht mehr zitieren, sende ab und hänge weiteres an.
Ergänzung ()

Caramon2 schrieb:
Außerdem für SSDs relevat: Windows kann exFAT nicht trimmen!

Interessant.

Caramon2 schrieb:
22H2, da danach der KI-Kram kam und ich das nicht im BS haben will

Wusste ich nicht. Ich habe jetzt die 25H2v2 vom März

Caramon2 schrieb:
Was bedeutet "alle User"?

EIn PC kann ja mehrere User haben. Unter Linux bekommen die eine ID, normalerweise 1000, der nächste User 1001, usw.

In diesem Fall kann der 1. User mit der ID 1000 auf die FAT-Partition schreiben

Code:
/dev/disk/by-uuid/E992-FE72 /windaten vfat uid=1000,gid=1000 0 0

Ich möchte das aber nicht breittreten, 1 Zeile offtopic wäre ok, sonst gehört das in den Linux-Bereich.

Ich hatte früher mit NTFS unter Linux Probleme, kann sein, dass das mittlerweile gelöst ist.

Caramon2 schrieb:
Man kann die Partition doch einfach im Dateimanager öffnen

Eine Frage der Arbeitsweise. Ich mache viel via ssh aus der Ferne auch mit Win-Partitionen und da will ich nicht extra mounten müssen.

Caramon2 schrieb:
per mount-Befehl im Autostart des jeweiligen Nutzers

Das ist der Punkt, die User sind unterschiedlich und man kann das auch allgemein machen. Ich hatte das schon mal, glaube man braucht dafür umask. Egal, war nur eine Frage.

Caramon2 schrieb:
Es hatte zwar etwas gedauert bis ich den Syntax kapiert hatte (damals konnte man noch keine KI fragen), aber dann ist das ziemlich effizient.

Voll deiner Meinung, speziell weil IMHO sgdisk das einzige Tool ist, dass die Grenzen am Anfang und Ende richtig setzt. Ich finde gerade den Link bei Arch Linux nicht, wo erklärt wird, was wo nicht 100% funktioniert.

Ich schreibe mir in meine Installations-Checklist die fertigen kompletten sgdisk-Befehle, dann ist das über das Live-System vor der Installation so erstellt wie ich es will und auch schneller,

Ein alter reiner Test-PC:

Code:
#sudo sgdisk -a 2048 -I -n 2::+16M -t 2:0C01 /dev/sda
#sudo sgdisk -a 2048 -I -n 3::+200G -t 3:0700 /dev/sda
#sudo sgdisk -a 2048 -I -n 4::+751M -t 4:2700 /dev/sda
sudo sgdisk -a 2048 -I -n 5::+100G -t 5:0700 -c 5:"WINDATEN" /dev/sda
sudo sgdisk -a 2048 -I -n 6::+3G -c 6:"BOOT-1" /dev/sda
sudo sgdisk -a 2048 -I -n 7::+110G -c 7:"DISTRI-1" /dev/sda
sudo sgdisk -a 2048 -I -n 8::+125G -c 8:"HOME-1" /dev/sda
sudo sgdisk -a 2048 -I -n 9::+4G -c 9:"BOOT-2" /dev/sda
sudo sgdisk -a 2048 -I -n 10::+115G -c 10:"DISTRI-2" /dev/sda
sudo sgdisk -a 2048 -I -n 11::+130G -c 11:"HOME-2" /dev/sda
sudo sgdisk -a 2048 -I -n 12:: -c 12:"MINIBACKUP" /dev/sda

Die EFI lasse ich, die mal Linux angelegt hat. Wir sind wieder beim Anfang des Threads. Damit Win glücklich ist, werden die Partitionen von 2-4 danach gelöscht und Win darf anlegen wie es will. Das erspart einfach nur das Rechnen der Grenzen, wenn man es so macht.

Das was meine Frage war, kann ich jetzt selber beantworten. Die 200G von sgdisk sind binär und Win legt dezimal an, also man kann da problemlos 200000 angeben. Ich habe jetzt ca. 10G verschenkt, weil ich vorsichtig war. Ist mir egal, ich brauche unter Win keine 200G zum Testen.
 
Zuletzt bearbeitet:
linuxnutzer schrieb:
Soweit die Theorie. Mir ist cchon passiert, dass zu wenig Platz nur für Download des neuen Win war. Da muss man dann nachhelfen und alles bereinigen. Ich habe das jetzt auf täglich eingestellt.
Das überrascht mich: Ein frisch installiertes Win11 belegt doch nur ca. 10 GiB und reserviert sich für Updates pauschal 8 GiB, damit es für Aktualisierung immer genug Platz hat. Dazu dann noch die paar Teiber (normale Programme nach D: installieren), da sollten dann immer noch gut 40 GiB frei sein: Wie kann das nicht reichen, falls die reservierten 8 GiB doch mal zu knapp sind?

Ich war zuletzt 2015 mit Windows XP online, um das LinuxMint-ISO zu laden. Vista, Win 7, 8.x und 10 habe ich nie genutzt und Windows 11 ausschließlich offline. - Also wie dort Aktualisierung inzwischen ablaufen, weil ich nicht.

linuxnutzer schrieb:
Da stimme ich zu, die Frage ist, ob man es unbedingt braucht bzw. wie man unter Linux damit einfach nach der Installation klar kommt.
Solange ich Linux nutze (egal welche Distribution), hatte es noch nie Probleme mit ntfs. Und es ist das einzige Windows-Dateisystem, das für SSDs vernünftig zu gebrauchen ist. - Wie umfassend ich mich damit beschäftigt habe, kannst du in dem Thread mit dem Video lesen.

Einzig das Linux ntfs noch nicht prüfen kann (soll aber demnächst kommen), ist ein gewisser Nachteil, da man dafür Windows booten muss.

Es gibt übrigens Windows-Treiber für ext4 und btrfs: Mit beiden hatte ich schlechte Erfahrungen: Ziemlich lahm und produzieren schnell Fehler. - Also Nutzung nur auf eigene Gefahr. Genau wie bei exFAT gilt für mich: Wer das nutzt hat selbst Schuld. ;)
Ergänzung ()

linuxnutzer schrieb:
Nö, total peinlich: Ein angeblich für Flashspeicher optimiertes Dateisystem, das man nicht trimmen kann. - Als wäre es darauf "optimiert", die Datenträger möglichst effizient zu beschädigen.
Ergänzung ()

linuxnutzer schrieb:
EIn PC kann ja mehrere User haben. Unter Linux bekommen die eine ID, normalerweise 1000, der nächste User 1001, usw.

/dev/disk/by-uuid/E992-FE72 /windaten vfat uid=1000,gid=1000 0 0

In diesem Fall kann der 1. User mit der ID 1000 auf die FAT-Partition schreiben
Ok, das normale. Ich wollte nur Missverständnisse vermeiden.

linuxnutzer schrieb:
Code:
/dev/disk/by-uuid/E992-FE72 /windaten vfat uid=1000,gid=1000 0 0
Dann so:
Code:
dev/disk/by-uuid/E992-FE72 /windaten vfat user,noauto 0 0
und im Autostart des jeweiligen Nutzers einfach:
Code:
mount /windaten
Dann bekommt es automatisch dessen uid+gid

linuxnutzer schrieb:
Ich möchte das aber nicht breittreten, 1 Zeile offtopic wäre ok, sonst gehört das in den Linux-Bereich.
Da das zur Windows-Installation neben Linux gehört, ist das kein offtopic.

linuxnutzer schrieb:
Eine Frage der Arbeitsweise. Ich mache viel via ssh aus der Ferne auch mit Win-Partitionen und da will ich nicht extra mounten müssen.
Sowas habe ich noch nie gemacht, kann das also nicht einschätzen.

linuxnutzer schrieb:
Das ist der Punkt, die User sind unterschiedlich und man kann das auch allgemein machen. Ich hatte das schon mal, glaube man braucht dafür umask. Egal, war nur eine Frage.
Das wäre vielleicht auch eine Möglichkeit: Wenn alle rwx haben, sollte ein auch keine Probleme geben. Ob das bei Windows-Dateisysteme aber funktioniert, ist eine andere Sache: Die unterstützen die Linux-Rechte ja nun nicht und ich meine, ich hätte deswegen schon mal Probleme gehabt: 2016, als ich einem Nachbarn Linux parallel zu Windows installiert habe. - So bin ich dann auf die Variante mit user,noauto + mount im Autostart gekommen.
 
Zuletzt bearbeitet:
Caramon2 schrieb:
Das überrascht mich: Ein frisch installiertes Win11 belegt doch nur ca. 10 GiB

Es kann durchaus mit meinem verminderten Wissen zu Win zu tun haben, aber ich kämpfte schon ziemlich mit Updates, am Anfang ist eine Menge Platz und irgendwann wird das System immer voller, nur durch Win-Updates. Die installierten Programme zum Flashen haben nur ein paar MB, das kann es nicht sein.

Code:
/dev/sda3              fuseblk   205G     56G  149G   28% /win11

Nach ein paar Tagen hat Win 56G, nur Updates, keine Programme installiert. Allerdings ist da noch kein automatisches Aufräumen eingestellt.

Caramon2 schrieb:
Solange ich Linux nutze (egal welche Distribution), hatte es noch nie Probleme mit ntfs

Ich schon und zwar gewaltige, ist aber lange her. Ich werde mal von exfat auf NTFS umformatieren. Wie am besten durch Win oder Linux?

Caramon2 schrieb:
Wie umfassend ich mich damit beschäftigt habe

Ich gar nicht, Hauptsache funktioniert irgendwie und einfach. Viel mehr als Hardware flashen und ähnliches mache ich unter Win nicht. Das letzte anspruchsvollere war Darktable unter Win und Linux von der Performance zu vergleichen.

Caramon2 schrieb:
Nö, total peinlich: Ein angeblich für Flashspeicher optimiertes Dateisystem, das man nicht trimmen kann

Jetzt habe ich auch gelesen, warum es keine Option unter Win für exfat gibt, weil das eben nicht sauber funktioniert und man das über die Kommandozeile erzwingen muss.
 
linuxnutzer schrieb:
Nach ein paar Tagen hat Win 56G, nur Updates, keine Programme installiert.
Wie kann Microsoft unter solchen Umständen 50 GB als Mindestgröße vorschreiben? - Gut dass ich mit diesem Mist nichts mehr zu tun habe.

linuxnutzer schrieb:
Ich schon und zwar gewaltige, ist aber lange her. Ich werde mal von exfat auf NTFS umformatieren. Wie am besten durch Win oder Linux?
Das ist egal. Wichtig sind 16k Clustergröße.



Hier auf den ersten Screenshot zum Vergleich meine Win11 22H2 Testinstallation:

https://www.computerbase.de/forum/t...enbar-immer-schrottiger.2217080/post-30524255

Partitionsgröße: 24 GiB
von Windows belegt: 11,6 GiB

Da ausschließlich offline genutzt, hat sich daran auch nichts mehr geändert.

Auf der "NTFS"-Partition waren Download und die installierten Programme.
 
Zuletzt bearbeitet:
Caramon2 schrieb:
Da ausschließlich offline genutzt, hat sich daran auch nichts mehr geändert.

Genau das ist der Punkt, ich mache sämtliche Updateorgien mit. Wäre echt blöd, wenn ich gerade ein Handy flashe und dann werde ich zum Neustart aufgefordert. Als Updates bis zum Umfallen, wenn man Hardware flasht. Es mag da andere Mittel geben Updates zu stoppen, aber so sicher bin ich mir nicht, was man da alles machen muss. Vor dem Flashen dürfen keine Updates angeboten werden.

So wie du dachte ich das auch mal und spendierte Win nur 30GB. Win sagt ja nicht, dass es damit auch ein Update machen kann, nur das OS installieren. Man kann aber mit Zusammenräumen (weis nicht wie sich das jetzt genau nennt) ziemlich viel Platz frei bekommen.
Ergänzung ()

Caramon2 schrieb:
Wichtig sind 16k Clustergröße

Wie erreicht man das? Ich weis vor allem nicht, was Clustergröße ist. Ich kenne nur Sektorgröße.
 
linuxnutzer schrieb:
Wie erreicht man das? Ich weis vor allem nicht, was Clustergröße ist. Ich kenne nur Sektorgröße.
s. Thread mit dem Partitionierungsvideo: Da geht es genau darum. (ich will nicht immer alles doppelt und dreifach erklären)

Bei Windows stellt man das im Klickbunti des entsprechenden Festplattentools ein, wie man es bei Linux macht, hatte ich ursprünglich beschrieben:
Caramon2 schrieb:
Hier meine Notizen dazu (in einen Editor kopieren und als reine Text-Datei speichert):
Das fette solltest du wirklich machen und es dir genauer ansehen. - Bei Unklarheiten hilft die Manpage: man mkntfs

Tipp:

Für sowas sind KIs sehr gut (ich habe deine Frage einfach kopiert):
ich:
Ich weis vor allem nicht, was Clustergröße ist. Ich kenne nur Sektorgröße.
Opera KI:
Ja — Sektorgröße und Clustergröße sind verwandt, aber nicht dasselbe.

Kurz erklärt

Sektorgröße: Die kleinste physische Einheit auf einem Datenträger, die das Laufwerk intern liest oder schreibt.
Typisch sind heute oft 512 Byte oder 4096 Byte.
Clustergröße: Die kleinste logische Einheit, die ein Dateisystem für Dateien verwendet.
Ein Cluster besteht aus einem oder mehreren Sektoren.

Der Zusammenhang

Ein Dateisystem speichert Dateien nicht in einzelnen Sektoren, sondern in Clustern.
Wenn eine Datei z. B. 1 Byte groß ist, belegt sie trotzdem mindestens einen ganzen Cluster.

Beispiel:

Sektorgröße: 512 Byte
Clustergröße: 4 KiB = 4096 Byte
Dann besteht ein Cluster aus 8 Sektoren

Warum das wichtig ist

Die Clustergröße beeinflusst:

Speicherplatzverschwendung bei vielen kleinen Dateien
Leistung bei großen Dateien
Kompatibilität mit Dateisystemen und Datenträgern

Kleine Cluster

besser für viele kleine Dateien
weniger „verschenkter“ Platz
oft etwas mehr Verwaltungsaufwand

Große Cluster

besser für große Dateien
oft effizienter beim Lesen/Schreiben großer Datenmengen
mehr Platzverlust bei kleinen Dateien

Einfaches Beispiel

Wenn die Clustergröße 64 KiB ist und du eine Datei mit 1 KiB speicherst, dann belegt sie trotzdem 64 KiB auf dem Datenträger.
Die restlichen 63 KiB sind dann ungenutzt, aber reserviert.

Merksatz

Sektorgröße = physische Grundeinheit des Laufwerks
Clustergröße = Grundeinheit des Dateisystems für Dateien

Wenn du willst, kann ich dir auch noch den Unterschied zwischen Sektor, Cluster, Block und Allocation Unit in einer kleinen Tabelle erklären.

Ich habe dann noch weiter gefragt, um eine Begründung für die 16k zu bekommen (kurz: 4x größere Cluster = 4x weniger Verwaltungsaufwand):
ich:
Ich habe die Erfahrung gemacht, dass auf 16k Cluster auch bei vielen kleinen Dateien (z. B. den Daten-Ordner von TV-Browser mit ca. 20 MB und 20000 Dateien) sehr viel schneller kopiert wird, als auf 4k Cluster.

Opera-KI:
Bei 20.000 kleinen Dateien ist beim Kopieren nicht nur das Schreiben der Nutzdaten wichtig, sondern vor allem der Verwaltungsaufwand des Dateisystems. Dazu gehören:

Anlegen von Dateieinträgen
Aktualisieren von Metadaten
Zuweisen von Clustern
Schreiben von Verzeichnisstrukturen
ggf. Aktualisieren von MFT- und Journal-Daten bei NTFS

Mit 4 KiB Clustern muss das Dateisystem für dieselbe Datenmenge oft mehr einzelne Cluster verwalten als mit 16 KiB, selbst wenn die Dateien klein sind. Das kann mehr Overhead erzeugen.

Der entscheidende Punkt: Viele kleine Dateien bedeuten viele Operationen

Wenn du 20.000 Dateien kopierst, ist die reine Datenmenge von 20 MB eigentlich sehr klein. Die Zeit wird dann oft nicht durch die 20 MB selbst bestimmt, sondern durch:

20.000 Datei-Erstellungen
20.000 Zugriffe auf Verzeichniseinträge
20.000 Metadaten-Updates
Antivirus-/Filtertreiber-Eingriffe
NTFS-Journaling
Cache-Verhalten des Betriebssystems

Bei kleinen Dateien ist 16 KiB zwar speicherplatzmäßig oft schlechter, aber beim Kopieren kann es trotzdem schneller sein, weil:

weniger Cluster pro Datei verwaltet werden müssen
die Zuordnung oft einfacher ist
das Dateisystem bei manchen Zugriffsmustern effizienter arbeitet
die MFT/Metadaten-Verwaltung günstiger ausfallen kann
Das hat sich in der Praxis bestätigt, egal ob SSD, HD, oder USB-Stick: 16k ist immer besser. Nur wie viel besser variiert.

Noch größere Cluster bringen dagegen nichts und über 128k wird es schrittweise wieder langsamer.
 
Zuletzt bearbeitet:

Ähnliche Themen

K
Antworten
8
Aufrufe
2.348
matty2580
M
Zurück
Oben