Mover 3 TB de arquivos NTFS do servidor de arquivos no local para o servidor do Azure - qual é o melhor método para transferir

2

Estamos movendo o nosso servidor de arquivos do Windows no local com 2.7 TB de arquivos NTFS para o Azure (temos 100 mb / s de conexão vpn site to site to azure) O que as pessoas recomendariam a melhor maneira de transferir nossos arquivos, mantendo intactas as permissões ntfs? Podemos recriar os aproximadamente 20 compartilhamentos de rede no servidor de arquivos, mas não queremos recriar as permissões de mais de 300 usuários do diretório NTFS. Criamos um servidor azure e instalamos a replicação do arquivo dfs entre o servidor local (um servidor Windows 2008R2 com 3 unidades virtualizadas no VMware), mas tivemos problemas para fazer isso funcionar, ele funciona para um pequeno número de arquivos, mas não todos eles.
Alguém usou os serviços de exportação ez copy ou azure (enviar azure um disco rígido) pode um desses métodos manter as permissões ntfs intactas?

    
por Jonathan in Ottawa 01.09.2016 / 23:09

2 respostas

3

Eu usaria robocopy /mir /copyall /z para preservar as ACLs.

Considere também que robocopy pode ser usado para pré-propagação DFSR para acelerar a replicação inicial

    
por 01.09.2016 / 23:49
3

Com tantos dados a essa velocidade, o sneakernet é provavelmente sua melhor aposta. Não tenho experiência em primeira mão com os serviços de exportação do Azure, mas ficaria muito surpreso se eles não tivessem uma maneira de preservar os metadados, incluindo informações de ACL.

    
por 02.09.2016 / 00:39