Sommigen Linux distributies staan default nog al magertjes afgesteld. als je dan een raid array hebt gebouwd moet de gesynced worden. Door de default instellingen kan dit proces nog al wat tijd in beslag nemen. Bij het bouwen van een Centos machine gaf het systeem aan dat syncen meer als 4 dagen in beslag zou nemen, en het proces liep al een paar uur.
# cat /proc/mdstat md1 : active raid1 sda3[1] sdb3[2] 974559040 blocks [2/1] [_U] [=>....................] recovery = 7.8% (38109184/974559040) finish=6048.1min speed=2108K/sec
Schrijf testen op de disken die al eerder waren uitgevoerd wezen er op dat de disken snellen waren. Volgens deze test zouden de disken zo rond de 95MB/s aan moeten kunnen.
Pas op met schrijven naar de disken. als de disk in gebruik is zal de data overschreven worden
# dd if=/dev/zero of=/dev/sda3 bs=1024 count=1024000 1048576000 bytes (1.0 GB) copied, 10.8882 seconds, 96.3 MB/s # dd if=/dev/zero of=/dev/sdb3 bs=1024 count=1024000 1048576000 bytes (1.0 GB) copied, 11.1162 seconds, 94.3 MB/s
In /proc kan je de speed_limit aanpassen. Je kan de parameters vinden in /proc/sys/dev/raid/speed_limit_min en /proc/sys/dev/raid/speed_limit_max. De default van speed_limit_max stond op dit dit systeem op 1MB/s minimum.
# echo 200000 > /proc/sys/dev/raid/speed_limit_max
het verhogen van de max zou voldoende moeten zijn, er zijn echter gevallen bekend waar dit niet voldoende was, je kan dan ook nog de min verhogen.
# echo 100000 > /proc/sys/dev/raid/speed_limit_min
hierna controleren.
# cat /proc/mdstat md1 : active raid1 sda3[1] sdb3[2] 974559040 blocks [2/1] [_U] [====>................] recovery = 22.4% (75695808/974559040) finish=105.5min speed=85754K/sec
de Sync speed is nu rond de 85 MB/s en het hele proces is nu binnen een paar uur klaar.
Recente reacties