na wat vreemde acties op storage nivo. De verkeerde disk was vergroot. omdat de vergroting nog niet bekend was binnen lvm de disken weer verkleind en de juiste disk vergroot. op 2 systemen is er ook direct een extra disk bij gezet. Omdat we met de boot disk wat acties hebben uitgevoerd voor de zekerheid een reboot. 1 van de 3 systemen gaf een foutmelding hij had problemen met de tweede volume groep. een duplicate name. je kan het volgende doen om het 1 en ander te fixen.
[root@SystemA]# pvs WARNING: Duplicate VG name vg.appl: Existing t3izBz-C26P-pyth-O8EC-Ye7L-eWZC-MHh7hR (created here) takes precedence over gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk WARNING: Duplicate VG name vg.appl: Existing t3izBz-C26P-pyth-O8EC-Ye7L-eWZC-MHh7hR (created here) takes precedence over gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk PV VG Fmt Attr PSize PFree /dev/mapper/mpathap2 vg.root lvm2 a-- 16.86g 6.02g /dev/mapper/mpathc vg.appl lvm2 a-- 17.00g 8.80g /dev/mapper/mpathd vg.appl lvm2 a-- 17.00g 8.80g
de nieuwe disk is /dev/mapper/mpathd op de 1 of andere manier lijkt die disk ook tot vg.appl te behoren. na controle van de lun ID (in mijn geval multipath -ll maar je kan ook naar scsi id kijken) weet ik zeker dat /dev/mapper/mpathd de nieuwe disk is. deze moeten we dus uit we dan renamen.
middels vgdisplay -v kan je de VG UUID en de PV Name achterhalen
[root@systemA]# vgdisplay -v |grep -E 'VG UUID|PV Name' Finding all volume groups Finding volume group "vg.appl" VG UUID gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk PV Name /dev/mapper/mpathd Finding volume group "vg.root" VG UUID pndR1f-p0VZ-qxVS-SxfI-JT2T-ZkL2-ifiPxq PV Name /dev/mapper/mpathap2 Finding volume group "vg.appl" VG UUID t3izBz-C26P-pyth-O8EC-Ye7L-eWZC-MHh7hR PV Name /dev/mapper/mpathc
De VG met UUID gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk is dus niet juist deze gaan we dus rename.
[root@systemA]# vgrename gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk oldapplvg
controleren hoe het er nu uitziet
[root@systemA]# vgs VG #PV #LV #SN Attr VSize VFree oldapplvg 1 16 0 wz--n- 17.00g 8.80g vg.appl 1 16 0 wz--n- 17.00g 8.80g vg.root 1 17 0 wz--n- 16.86g 6.02g [root@systemA]# pvs PV VG Fmt Attr PSize PFree /dev/mapper/mpathap2 vg.root lvm2 a-- 16.86g 6.02g /dev/mapper/mpathc vg.appl lvm2 a-- 17.00g 8.80g /dev/mapper/mpathd oldapplvg lvm2 a-- 17.00g 8.80g
Om de lvm config/cache weer correct op te bouwen even een vgscan.
[root@systemA]# vgscan --mknodes Reading all physical volumes. This may take a while... Found volume group "oldapplvg" using metadata type lvm2 Found volume group "vg.root" using metadata type lvm2 Found volume group "vg.appl" using metadata type lvm2
nu kan je weer doen met je VG wat je wilt, in mijn geval de de vg weggooien maar je kan ook de LV binnen de VG weer gaan gebruiken als die er op stonden.
Recente reacties