consolidando e descomissionando dados pela rede

0

Recentemente, fui encarregado de consolidar nosso espaço de dados em toda a nossa rede. Temos vários terabytes de dados que existem em vários servidores e eu estimaria que cerca de 30-40% dos dados são inúteis. Eu classificaria dados "inúteis" como dados que não foram tocados em mais de 7 anos porque alguém o transferiu para um novo local e nunca limpou o antigo, ou é apenas irrelevante e antigo.

Minha pergunta é ...

Existe uma ferramenta que me permita examinar grandes quantidades de dados para me ajudar a identificar possíveis diretórios órfãos em nossa rede?

    
por Michael J. Lee 27.07.2011 / 17:42

1 resposta

1

Aqui está uma sugestão, procure por DoubleKiller - Eu achei muito útil para identificar arquivos duplicados através de terabytes de coisas, ele tem muitas opções de busca e restrições em quais diretórios procurar. É uma ferramenta útil para o arsenal, mas como com qualquer coisa que leia arquivos, destruirá os tempos de acesso, se eles forem necessários no futuro.

    
por 27.07.2011 / 21:23