Windows Server 2012 R2 Dividiu 356 GB para 1.32 GB

13

Estou experimentando a desduplicação em um espaço de armazenamento do Server 2012 R2. Eu deixei executar a primeira otimização de desduplicação na noite passada, e fiquei contente em ver que ela causou uma redução de 340GB.

Noentanto,eusabiaqueissoerabomdemaisparaserverdade.Naunidade,100%dadesduplicaçãoveiodebackupsdoSQLServer:

Isso parece irrealista, considerando que existem backups de bancos de dados que são 20x desse tamanho na pasta. Como exemplo:

Calcula-se que um arquivo de backup de 13,3 GB foi deduzido para 0 bytes. E, claro, esse arquivo não funciona quando eu fiz uma restauração de teste dele.

Para adicionar insulto à injúria, há outra pasta nessa unidade que tem quase uma TB de dados nela que deve ter deduzido muito, mas não foi.

A desduplicação do Server 2012 R2 funciona?

    
por Mark Henderson 14.01.2015 / 22:36

3 respostas

5

A desduplicação funciona.

Com a deduplicação, o tamanho no campo de disco fica sem sentido. Os arquivos não são mais "arquivos" comuns, mas os pontos de nova análise, e não contêm dados reais, mas metadados para o mecanismo de desduplicação reconstruir o arquivo. No meu entender, você não pode obter economias por arquivo, pois o armazenamento de fragmentos de deduplicação é por volume, para que você obtenha apenas uma economia por volume. link

Talvez o seu trabalho de dedução ainda não tenha sido concluído, se outros dados ainda não tiverem sido deduzidos. Não é super-rápido, é limitado por tempo por padrão e pode ser limitado por recursos, dependendo do seu hardware. Verifique a programação de dedução do Gerenciador de Servidores.

Implantei a dedup em vários sistemas (Windows 2012 R2) em diferentes cenários (SCCM DP, diferentes sistemas de implantação, servidores de arquivos genéricos, servidores de arquivos de pastas pessoais do usuário, etc.) há cerca de um ano. Apenas certifique-se de que você está totalmente corrigido, lembro-me de vários patches para deduzir a funcionalidade (atualizações cumulativas e hotfixes) desde o RTM.

No entanto, existem alguns problemas que alguns sistemas não podem ler dados diretamente de arquivos otimizados no sistema local (IIS, SCCM em alguns cenários). Como sugerido por yagmoth555, você deve tentar expandir o DedupFile para não otimizá-lo ou apenas fazer uma cópia do arquivo (o arquivo de destino não será otimizado até a próxima execução da otimização) e tentar novamente. link link

Se o seu backup do SQL estiver realmente corrompido, acredito que seja devido a um problema diferente e não à tecnologia de desduplicação relacionada.

    
por 19.01.2015 / 21:50
2

Parece que eu pulei a arma dizendo que esse tipo de deduplicação não é possível. Aparentemente, é totalmente possível, porque além desses backups descompactados do SQL Server, também tenho backups em nível de instantâneo do VMWare das VMs do host.

Como yagmoth555 sugeriu, eu executei um Expand-DedupeFile em alguns desses arquivos de 0 byte e recebi um arquivo totalmente utilizável no final dele.

Eu então olhei para a minha metodologia de teste de como eu determinei que os arquivos não eram bons, e eu encontrei uma falha nos meus testes (permissões!).

Eu também abri um arquivo de backup deduzido de 0 byte em um editor hexadecimal, e tudo parecia OK.

Então eu ajustei minha metodologia de testes e tudo parece funcionar. Quando saí, as deduplas ficaram melhores, e agora economizei mais de 1,5 TB de espaço graças a dedupe.

Vou testar isso mais detalhadamente antes de dar um empurrão na produção, mas agora parece promissor.

    
por 19.01.2015 / 21:45
0

Sim, mas eu só vi o caso de um db de cluster de hyperv dedup'ed. 4 a 400g e a VM estava em execução. O sistema operacional foi totalmente corrigido.

Para o seu arquivo de backup sql, é um dump que você pode ler nele? Eu verificaria o conteúdo. Para essa parte eu não posso responder como se dedup o arquivo ascii.

    
por 15.01.2015 / 01:38