Replicação DFS em 2 compartilhamentos duplicados existentes

2

Eu tenho dois conjuntos de dados em sites separados que são espelhos um do outro. O segundo conjunto é um clone do primeiro set. No entanto, o primeiro conjunto será os dados ao vivo e, portanto, serão alterados daqui para frente. Precisamos configurar o DFS entre os dois, com o segundo conjunto atuando apenas como um recebimento. Tudo bem, podemos fazer isso. Minha consulta é, quando eu inicio o DFS, ele vai tentar copiar novamente tudo de novo, ou vai perceber que a maioria das coisas já existe e é a mesma e, portanto, não há necessidade de copiar / mudar isso? Obrigado

    
por Kip 09.10.2012 / 16:19

1 resposta

3

Se os seus dados forem idênticos, não serão. Se você tiver pequenas diferenças, será. O DFS calcula um hash do arquivo para determinar se a replicação precisa ocorrer.

Você pode usar a ferramenta dfsrdiag para verificar alguns arquivos em ambos os lados para determinar se eles calculam o mesmo hash. Se ambos tiverem o mesmo hash, o DFS não tentará copiar novamente os dados. Lembre-se de que, como ele usa um hash, itens como permissões de segurança e horários de último acesso, etc., serão incluídos nesse cálculo.

Por exemplo,

dfsrdiag filehash /path:"\server1\file.txt"

File Hash: CEA2C36A-266B5774-3557A3F4-E735EFE1

Operation Succeeded


dfsrdiag filehash /path:"\server2\file.txt"

File Hash: CEA2C36A-266B5774-3557A3F4-E735EFE1

Operation Succeeded

Neste exemplo, ambos os arquivos saíram com o mesmo hash, então eles são realmente idênticos.

    
por 09.10.2012 / 16:29