LVM - Probleme beim erstellen des Dateisystems

jousch

Cadet 4th Year
Registriert
Nov. 2010
Beiträge
115
Hallo,

ich habe letzte Woche ein Linux RAID5 erstellt mit 5 Platten un der Resync wurde abgeschlossen. Nun wollte ich wie gewohnt darauf ein LVM erstellen, was auch funktionierte.

VolumeGroup: vg1
LogicalVolume (90%): datafilesystem

pvscan & lvscan zeigen, dass alles im grünen Bereich sein sollte.

Mit
Code:
mkfs -t xfs /dev/vg1/datafilesystem
habe ich nun versucht das Filesystem zum Erstellen, doch dieses bricht mir mit der Meldung (auch nach Reboot)
Code:
root@fileserver:/home/jousch# mkfs -t xfs /dev/vg1/datafilesystem 
mkfs.xfs: /dev/vg1/datafilesystem kann nicht geöffnet werden: Das Gerät oder die Ressource ist belegt

Der mount Befehl zeigt mir das /dev/mapper/vg1-filesystem noch nirgendwo gemountet ist oder ein Filesystem enthält.


Hat evtl jemand für mich eine Idee woran das liegen kann?
Mit bestem Dank im Voraus,
jousch
 
Also den lvcreate hast du erledigt?

poste mal den Output von lvs und mount bitte, dann kann man dir besser helfen.
 
Danke, ja LVM is komplett ready.

Code:
root@fileserver:/home/jousch# lvs
  LV             VG   Attr   LSize  Origin Snap%  Move Log Copy%  Convert
  rootfilesystem vg0  -wi-ao 13,97g                                      
  swapfilesystem vg0  -wi-ao  1,86g                                      
  wwwfilesystem  vg0  -wi-a- 50,00g                                      
  datafilesystem vg1  -wi-a-  6,55t

Befehl "mount" poste ich nicht da das betroffene Device noch nicht gemountet ist.

Kmischer weise gings jetzt mal, nur gibts jetzt Probs mit der Performance bei XFS...
 
Haste du das Filesystem jetzt gemountet oder nicht?

Sollte eigentlich gehen... komisch
was sagt denn vgs?
 
Naja, also LVM, VG, LV laufen ja.

Nun hab ich aber Probleme das Dateisystem darauf richtig zum laufen zu bringen.

Ich habe eine Chunksize von 512kB am RAID5
Code:
root@fileserver:/home/jousch# mdadm --detail /dev/md2
/dev/md2:
        Version : 00.90
  Creation Time : Fri Nov  4 16:25:24 2011
     Raid Level : raid5
     Array Size : 7814047744 (7452.06 GiB 8001.58 GB)
  Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Mon Nov  7 20:37:52 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           UUID : e819817c:d5452e94:b8756c74:3dd5f86e (local to host fileserver)
         Events : 0.36

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       49        1      active sync   /dev/sdd1
       2       8       65        2      active sync   /dev/sde1
       3       8       81        3      active sync   /dev/sdf1
       4       8       97        4      active sync   /dev/sdg1
Laut der manpage von mkfs.xfs muss man das Erstellen der xfs-partition so konfigurieren, dass man die richtigen Values für "su=value" und "sw=value" angibt entsprechend der RAID5 Konfig

Ich habe 5 Platten im RAID5 Verbund. Die Chunksize beträgt 512K beim RAID-Verbund.
Folglich haben wir bereits versucht mit
Code:
mkfs.xfs -f -d su=1024 sw=4096 /dev/vg1/datafilesystem
Das funktionioert so leider nicht. Wenn wir ohne den Values das Filesystem erstellen, wird das Datasystem sehr langsam erstellt und die Platten arbeiten nur ca. 0.5MB/sek beim Erstellen (gelesen aus "iostat -mx 5"). Dies habe ich abgebrochen, und versuche die richtigen Werte zu finden. Nur finde ich leider nicchts brauchbares im Netz.


Hat evtl jemand einen Tipp für mich hierbei?


vgs output:
Code:
root@fileserver:/home/jousch# vgs
  VG   #PV #LV #SN Attr   VSize   VFree  
  vg0    1   3   0 wz--n- 148,81g  82,98g
  vg1    1   1   0 wz--n-   7,28t 745,21g

Zusatz

Probiert haben wir es laut diesem Snippet: http://oss.sgi.com/archives/xfs/2006-06/msg00409.html
 
Zuletzt bearbeitet:
Nur mal so als Frage, hast mal ext3 oder ext4 veruscht?

Bei XFS bin ich nicht so firm, leider. ein mkfs.ext3/4 schreibt aber stellenweise auch deutlich unterhalb der maximalen I/O Performance
 
ext3 oder ext4 habe ich noch nicht versucht. Könnte ich aber! Muss man hier auch bestimmte Werte mitgeben, damit am Schluss die Performance gesteigert wird am RAID5?
 
Nicht das ich wüsste.
Wenn du weißt ob du viele große oder kleine Files hast kannst du die Inode Größe mit -i entsprechend anpassen.
Bei ext 3 ist glaub ich 4096 Blöcke/Bytes per Inode standard und man kann auf 65535 hoch gehen.
Bei ext4 sieht es etwas andes aus, habe aber noch nicht sehr viele spezialfälle mit ext4 gemacht.
 
Zurück
Oben