ddrescue: Repetir blocos com falha após a primeira execução

0

Eu fiz backup de um disco rígido com falha com ddrescue . O comando que usei foi

# ddrescue -vv -d -J /dev/sda /mnt/rescue/winxp.img winxp.map

O programa foi concluído com cerca de 60 erros. Eu queria repetir apenas os blocos com falha. Eu encontrei esta seção na manpage:

-m file
--domain-mapfile=file
    Restrict the rescue domain to the blocks marked as finished in the
    mapfile file. This is useful for merging partially recovered images of 
    backups, or if the destination drive fails during the rescue. Use '-' 
    as file to read the domain mapfile from standard input. Specialized 
    tools like ddrutility or partclone can produce a domain mapfile 
    listing all the used blocks in a partition, making the rescue more
    efficient.
-M
--retrim
    Mark all failed blocks inside the rescue domain as non-trimmed before
    beginning the rescue. The effect is similar to '--retry-passes=1', but
    the bad sectors are tried in a different order, making perhaps
    possible to rescue some of them.

O próximo comando que eu emiti foi

# ddrescue -vv -d -M -m winxp.map /dev/sda /mnt/rescue/winxp.img winxp.2.map

Eu pensei que isso seria apenas repetir os blocos que falharam anteriormente. No entanto, parecia começar novamente todo o processo e tentar resgatar todo o disco.

Existe uma maneira de repetir somente os blocos com falha e, com sucesso, salvá-los na imagem anterior?

    
por nautical 27.04.2018 / 16:45

1 resposta

2

Você precisa usar o arquivo de mapa mesmo toda vez - é aqui que ele registra as regiões que foram tentadas e se tiveram êxito ou falharam.

Normalmente, você não precisa alterar o comando de execução para execução, simplesmente reemitindo-o fará com que ele tente novamente as regiões com falha (novamente).

Usar -m irá (como o manual indica) " Restringir o domínio de resgate aos blocos marcados como finalizados no arquivo de mapfile. " - ie: somente tente lendo os blocos de sucesso.

Novamente, conforme o manual informa, isso é útil em conjunto com outros utilitários para reduzir a quantidade de dados lidos e reduzir potencialmente o tempo de execução e o número de erros encontrados.

    
por 27.04.2018 / 16:54