LÖSUNG: Es waren die Reserved Blocks (5% default) vom Filesystem.
Hey, das ist vielleicht einfaches Anfänger-Wissen, das mir in meinem Inselwissen fehlt. Es geht um klassisches mdadm Raid auf einem Ubuntu Server mit ext4 Partition.
md0 ist ein ext4 Raid1 Array (4kb Blocksize) mit einem Spare (3x 8TB HDD).
Chunksize sieht seltsam aus, ist aber sowieso irrelevant für Raid1.
md1 ist ein ext4 Raid0 Array (4kb Blocksize) aus 2x 4TB SSDs.
Es fand ein "rsync -ah --delete" statt zwischen den Laufwerken. "tree" spuckt die selbe Datei-Anzahl aus.
"df -h" zeigt die selbe Größe an, gleich viel belegten Speicher, aber dennoch unterschiedlich viel freien Speicher.
Warum matched der "freie Speicher" nicht? Wo kommt die Differenz her? Rechne ich da was falsch? Fressen Raid1 Meta Informationen 400GB? Wenn ich simpel danach google kommt natürlich immer die Standard-Antwort "Raid1 verbraucht die Hälfte der raw capacity"... aber das ist mir klar... man spiegelt ja eine Platte
Danke schon mal für die Nachhilfe
Hey, das ist vielleicht einfaches Anfänger-Wissen, das mir in meinem Inselwissen fehlt. Es geht um klassisches mdadm Raid auf einem Ubuntu Server mit ext4 Partition.
md0 ist ein ext4 Raid1 Array (4kb Blocksize) mit einem Spare (3x 8TB HDD).
Chunksize sieht seltsam aus, ist aber sowieso irrelevant für Raid1.
md1 ist ein ext4 Raid0 Array (4kb Blocksize) aus 2x 4TB SSDs.
Es fand ein "rsync -ah --delete" statt zwischen den Laufwerken. "tree" spuckt die selbe Datei-Anzahl aus.
"df -h" zeigt die selbe Größe an, gleich viel belegten Speicher, aber dennoch unterschiedlich viel freien Speicher.
Warum matched der "freie Speicher" nicht? Wo kommt die Differenz her? Rechne ich da was falsch? Fressen Raid1 Meta Informationen 400GB? Wenn ich simpel danach google kommt natürlich immer die Standard-Antwort "Raid1 verbraucht die Hälfte der raw capacity"... aber das ist mir klar... man spiegelt ja eine Platte
Danke schon mal für die Nachhilfe
Code:
#df -h
/dev/md0 7,3T 4,4T 2,5T
/dev/md1 7,3T 4,4T 2,9T
Code:
#cat /proc/mdstat
md0 : active raid1 sdd1[2] sdc1[1] sdb1[3](S)
7813893120 blocks super 1.2 [2/2] [UU]
bitmap: 0/59 pages [0KB], 65536KB chunk
md1 : active raid0 sde1[0] sdf1[1]
7813770240 blocks super 1.2 512k chunks
Code:
#sudo mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Jun 29 01:50:43 2025
Raid Level : raid0
Array Size : 7813770240 (7.28 TiB 8.00 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Jun 29 01:50:43 2025
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : original
Chunk Size : 512K
Consistency Policy : none
Name : myserver:1 (local to host myserver)
UUID : 61cfff13:5ca5c984:a4d75cf0:2a04a93v
Events : 0
Number Major Minor RaidDevice State
0 8 65 0 active sync /dev/sde1
1 8 81 1 active sync /dev/sdf1
Code:
#sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Oct 21 14:11:21 2018
Raid Level : raid1
Array Size : 7813893120 (7.28 TiB 8.00 TB)
Used Dev Size : 7813893120 (7.28 TiB 8.00 TB)
Raid Devices : 2
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Tue Jul 15 02:36:45 2025
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Consistency Policy : bitmap
Name : myserver:0 (local to host myserver)
UUID : 7be54e8e:1cd57bc1:669931dc:b3c2499x
Events : 162549
Number Major Minor RaidDevice State
2 8 49 0 active sync /dev/sdd1
1 8 33 1 active sync /dev/sdc1
3 8 17 - spare /dev/sdb1
Zuletzt bearbeitet: