Eu tenho uma configuração de software RAID 1 no CentOS 6.9 com dois HDDs (SDA e SDB). O autoteste inteligente do SDB começou a gerar erros esta semana:
Device: /dev/sdb [SAT], Self-Test Log error count increased from 0 to 1
Portanto, hoje de manhã, configurei-o para um estado com falha usando o mdadm, removi o SDB e inseri um novo HDD. Os comandos que eu corri são:
smartctl --all /dev/sdb
cat /proc/mdstat
mdadm --manage /dev/md1 --fail /dev/sdb1
mdadm --manage /dev/md1 --remove /dev/sdb1
mdadm --manage /dev/md5 --fail /dev/sdb5
mdadm --manage /dev/md5 --remove /dev/sdb5
mdadm --manage /dev/md3 --fail /dev/sdb3
mdadm --manage /dev/md3 --remove /dev/sdb3
mdadm --manage /dev/md2 --fail /dev/sdb2
mdadm --manage /dev/md2 --remove /dev/sdb2
cat /proc/mdstat
shutdown -h now
O comando top me permitiu ver o número de série dos HDDs para garantir que eu puxei a unidade correta.
Depois de colocar uma nova unidade nos servidores, o BIOS simplesmente me dá um erro (nos moldes de), instale um dispositivo de inicialização adequado e reinicie a máquina.
Minha suposição é que (de alguma forma) eu erroneamente só tinha o MBR no SDB (apenas um palpite). Assim, ele não inicializa com o SDB removido. Eu tentei colocar o SDB de volta na máquina e ele apenas clica (é claro) e me dá o mesmo erro de instalar um dispositivo de inicialização adequado e reiniciar.
Alguém pode fazer alguma sugestão sobre como fazer com que esta máquina seja inicializada para que eu possa recuperar todos os meus dados? O SDA ainda deve ser um bom HDD. Além disso, se houver uma maneira de inicializar a partir do SDA, devo instalar um novo SDB e permitir que o RAID do software seja sincronizado.
UPDATE :
Graças a RalfFriedl, iniciei o servidor a partir de um LiveCD.
Eu usei:
sfdisk -d /dev/sda | sfdisk --force /dev/sdb
para particionar o novo SDB, assim como o SDA.
Obrigado!