LVM – Anleitung für Anfänger

Führe das Gleiche für /dev/sdd aus:

fdisk /dev/sdd

Die Ausgabe von

fdisk -l

sieht wie folgt aus:

server1:~# fdisk -l

Disk /dev/sda: 21.4 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sda1 * 1 18 144553+ 83 Linux
/dev/sda2 19 2450 19535040 83 Linux
/dev/sda4 2451 2610 1285200 82 Linux swap / Solaris

Disk /dev/sdb: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdb1 1 3040 24418768+ fd Linux raid autodetect
/dev/sdb2 3041 10443 59464597+ fd Linux raid autodetect

Disk /dev/sdc: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdc1 1 3040 24418768+ fd Linux raid autodetect

Disk /dev/sdd: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdd1 1 3040 24418768+ fd Linux raid autodetect
/dev/sdd2 3041 10443 59464597+ fd Linux raid autodetect

Disk /dev/sde: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sde1 1 3040 24418768+ fd Linux raid autodetect

Disk /dev/sdf: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdf1 1 3040 24418768+ 8e Linux LVM

Disk /dev/md1: 25.0 GB, 25004736512 bytes
2 heads, 4 sectors/track, 6104672 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md1 doesn’t contain a valid partition table

Disk /dev/md0: 25.0 GB, 25004736512 bytes
2 heads, 4 sectors/track, 6104672 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md0 doesn’t contain a valid partition table

Nun fügen wir erneut /dev/sdb1 zu /dev/md0 und /dev/sdd1 zu /dev/md1 hinzu:

mdadm –manage /dev/md0 –add /dev/sdb1

server1:~# mdadm –manage /dev/md0 –add /dev/sdb1
mdadm: re-added /dev/sdb1

mdadm –manage /dev/md1 –add /dev/sdd1

server1:~# mdadm –manage /dev/md1 –add /dev/sdd1
mdadm: re-added /dev/sdd1

Nun werden die Inhalter beider RAID arrays synchronisiert. Wir müssen abwarten, bis dies abgeschlossen ist, bevor wir weiter machen können. Den Status der Synchronisation können wir mit Folgendem überprüfen

cat /proc/mdstat

Während der Synchronisation sieht die Ausgabe wie folgt aus:

server1:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid5] [raid4] [raid6] [raid10]
md0 : active raid1 sdb1[1] sdc1[0]
24418688 blocks [2/1] [U_]
[=>……………….] recovery = 9.9% (2423168/24418688) finish=2.8min speed=127535K/sec

md1 : active raid1 sdd1[1] sde1[0]
24418688 blocks [2/1] [U_]
[=>……………….] recovery = 6.4% (1572096/24418688) finish=1.9min speed=196512K/sec

unused devices: <none>

So sieht sie aus wenn die Synchronisation abgeschlossen ist:

server1:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid5] [raid4] [raid6] [raid10]
md0 : active raid1 sdb1[1] sdc1[0]
24418688 blocks [2/2] [UU]

md1 : active raid1 sdd1[1] sde1[0]
24418688 blocks [2/2] [UU]

unused devices: <none>

Nun führen wir den gleichen Prozess erneut aus, dieses Mal ersetzen wir /dev/sdc und /dev/sde:

mdadm –manage /dev/md0 –fail /dev/sdc1
mdadm –manage /dev/md0 –remove /dev/sdc1
mdadm –manage /dev/md1 –fail /dev/sde1
mdadm –manage /dev/md1 –remove /dev/sde1

fdisk /dev/sdc
fdisk /dev/sde

mdadm –manage /dev/md0 –add /dev/sdc1
mdadm –manage /dev/md1 –add /dev/sde1

cat /proc/mdstat

Warte bis die Synchronisation abgeschlossen ist.

Als Nächstes erstellen wir die RAID arrays /dev/md2 von /dev/sdb2 und /dev/sdc2 sowie /dev/md3 von /dev/sdd2 und /dev/sde2.

mdadm –create /dev/md2 –auto=yes -l 1 -n 2 /dev/sdb2 /dev/sdc2

server1:~# mdadm –create /dev/md2 –auto=yes -l 1 -n 2 /dev/sdb2 /dev/sdc2
mdadm: array /dev/md2 started.

mdadm –create /dev/md3 –auto=yes -l 1 -n 2 /dev/sdd2 /dev/sde2

server1:~# mdadm –create /dev/md3 –auto=yes -l 1 -n 2 /dev/sdd2 /dev/sde2
mdadm: array /dev/md3 started.

Bevor wir weiter machen, müssen die neuen RAID arrays synchronisiert werden, also solltest Du Folgendes überprüfen

cat /proc/mdstat

server1:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid5] [raid4] [raid6] [raid10]
md3 : active raid1 sde2[1] sdd2[0]
59464512 blocks [2/2] [UU]
[=>……………….] resync = 5.1% (3044224/59464512) finish=5.5min speed=169123K/sec

md2 : active raid1 sdc2[1] sdb2[0]
59464512 blocks [2/2] [UU]
[=>……………….] resync = 5.5% (3312512/59464512) finish=9.3min speed=100379K/sec

md0 : active raid1 sdc1[0] sdb1[1]
24418688 blocks [2/2] [UU]

md1 : active raid1 sde1[0] sdd1[1]
24418688 blocks [2/2] [UU]

unused devices: <none>

Nachdem die Synchronisation abgeschlossen ist, bereiten wir /dev/md2 und /dev/md3 für LVM vor:

pvcreate /dev/md2 /dev/md3

server1:~# pvcreate /dev/md2 /dev/md3
Physical volume „/dev/md2“ successfully created
Physical volume „/dev/md3“ successfully created

und fügen /dev/md2 und /dev/md3 unserer fileserver Volume Group hinzu:

vgextend fileserver /dev/md2 /dev/md3

server1:~# vgextend fileserver /dev/md2 /dev/md3
Volume group „fileserver“ successfully extended

Lass uns nun unsere *display Befehel laufen lassen:

pvdisplay

server1:~# pvdisplay
— Physical volume —
PV Name /dev/md0
VG Name fileserver
PV Size 23.29 GB / not usable 0
Allocatable yes (but full)
PE Size (KByte) 4096
Total PE 5961
Free PE 0
Allocated PE 5961
PV UUID 7JHUXF-1R2p-OjbJ-X1OT-uaeg-gWRx-H6zx3P

— Physical volume —
PV Name /dev/md1
VG Name fileserver
PV Size 23.29 GB / not usable 0
Allocatable yes
PE Size (KByte) 4096
Total PE 5961
Free PE 18
Allocated PE 5943
PV UUID pwQ5AJ-RwVK-EebA-0Z13-d27d-2IdP-HqT5RW

— Physical volume —
PV Name /dev/md2
VG Name fileserver
PV Size 56.71 GB / not usable 0
Allocatable yes
PE Size (KByte) 4096
Total PE 14517
Free PE 14517
Allocated PE 0
PV UUID 300kTo-evxm-rfmf-90LA-4YOJ-2LG5-t4JHnf

— Physical volume —
PV Name /dev/md3
VG Name fileserver
PV Size 56.71 GB / not usable 0
Allocatable yes
PE Size (KByte) 4096
Total PE 14517
Free PE 14517
Allocated PE 0
PV UUID LXFSW6-7LQX-ZGGU-dV95-jQgg-TK44-U5JOjO

Das könnte dich auch interessieren …