na wat vreemde acties op storage nivo. De verkeerde disk was vergroot. omdat de vergroting nog niet bekend was binnen lvm de disken weer verkleind en de juiste disk vergroot. op 2 systemen is er ook direct een extra disk bij gezet. Omdat we met de boot disk wat acties hebben uitgevoerd voor de zekerheid een reboot. 1 van de 3 systemen gaf een foutmelding hij had problemen met de tweede volume groep. een duplicate name. je kan het volgende doen om het 1 en ander te fixen.
[root@SystemA]# pvs WARNING: Duplicate VG name vg.appl: Existing t3izBz-C26P-pyth-O8EC-Ye7L-eWZC-MHh7hR (created here) takes precedence over gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk WARNING: Duplicate VG name vg.appl: Existing t3izBz-C26P-pyth-O8EC-Ye7L-eWZC-MHh7hR (created here) takes precedence over gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk PV VG Fmt Attr PSize PFree /dev/mapper/mpathap2 vg.root lvm2 a-- 16.86g 6.02g /dev/mapper/mpathc vg.appl lvm2 a-- 17.00g 8.80g /dev/mapper/mpathd vg.appl lvm2 a-- 17.00g 8.80g
de nieuwe disk is /dev/mapper/mpathd op de 1 of andere manier lijkt die disk ook tot vg.appl te behoren. na controle van de lun ID (in mijn geval multipath -ll maar je kan ook naar scsi id kijken) weet ik zeker dat /dev/mapper/mpathd de nieuwe disk is. deze moeten we dus uit we dan renamen.
middels vgdisplay -v kan je de VG UUID en de PV Name achterhalen
[root@systemA]# vgdisplay -v |grep -E 'VG UUID|PV Name'
    Finding all volume groups
    Finding volume group "vg.appl"
  VG UUID               gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk
  PV Name               /dev/mapper/mpathd
    Finding volume group "vg.root"
  VG UUID               pndR1f-p0VZ-qxVS-SxfI-JT2T-ZkL2-ifiPxq
  PV Name               /dev/mapper/mpathap2
    Finding volume group "vg.appl"
  VG UUID               t3izBz-C26P-pyth-O8EC-Ye7L-eWZC-MHh7hR
  PV Name               /dev/mapper/mpathc
De VG met UUID gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk is dus niet juist deze gaan we dus rename.
[root@systemA]# vgrename gXYl1p-ZySD-04t6-yScJ-Wroz-KBOK-7P2LBk oldapplvg
controleren hoe het er nu uitziet
[root@systemA]# vgs VG #PV #LV #SN Attr VSize VFree oldapplvg 1 16 0 wz--n- 17.00g 8.80g vg.appl 1 16 0 wz--n- 17.00g 8.80g vg.root 1 17 0 wz--n- 16.86g 6.02g [root@systemA]# pvs PV VG Fmt Attr PSize PFree /dev/mapper/mpathap2 vg.root lvm2 a-- 16.86g 6.02g /dev/mapper/mpathc vg.appl lvm2 a-- 17.00g 8.80g /dev/mapper/mpathd oldapplvg lvm2 a-- 17.00g 8.80g
Om de lvm config/cache weer correct op te bouwen even een vgscan.
[root@systemA]# vgscan --mknodes Reading all physical volumes. This may take a while... Found volume group "oldapplvg" using metadata type lvm2 Found volume group "vg.root" using metadata type lvm2 Found volume group "vg.appl" using metadata type lvm2
nu kan je weer doen met je VG wat je wilt, in mijn geval de de vg weggooien maar je kan ook de LV binnen de VG weer gaan gebruiken als die er op stonden.
Recente reacties