Que protocolo (CIFS, SFTP ou WebDav) para backup de grande quantidade de dados multiusuários?

1

Eu tenho um servidor Linux (Ubuntu 16.04) onde gostaria de montar uma "caixa de armazenamento" externa onde periodicamente backup de vários terabytes de dados do servidor (alta e baixa frequência), possivelmente controlando os atributos do usuário ( proprietário / grupo / permissões).

O provedor dessa caixa de armazenamento oferece os seguintes protocolos: FTP, FTPS, SFTP, SCP, Samba / CIFS, HTTPS, WebDAV

Qual ferramenta de backup devo considerar? Se você sugerir o rsync, como eu teria primeiro que montar os dados localmente, qual protocolo eu preferiria para a montagem? Seria possível fazer backup dos atributos do usuário (ou seja, mapear usuários entre o servidor e o host)?

    
por Antonello 08.09.2017 / 13:49

2 respostas

2

Isso realmente depende das especificidades da rede e de como o appliance de armazenamento é projetado.

Se você realmente tiver que montar o diretório de armazenamento como um sistema de arquivos, está obviamente preso usando SMB / CIFS ou SSHFS (que precisa apenas de suporte a SFTP no dispositivo de armazenamento). Desses dois, o SMB quase sempre terá um desempenho melhor para qualquer coisa, exceto as transferências em bloco (e para transferências em bloco, qualquer uma pode vencer). Se você conseguir trabalhar com o suporte do NFSv4 (e você absolutamente deve ser capaz de fazer isso se for uma caixa do Ubuntu, independentemente do que o OEM diga), geralmente superará o SMB / CIFS e o SSHFS na maior parte do tempo.

Se você quiser apenas enviar dados pela rede, suas opções não serão muito melhores para ser honesto. SFTP e SCP são o que eu provavelmente usaria na sua situação porque FTP regular (e FTPS, que é FTP sobre SSL) é uma porcaria, e WebDAV (independente de ser HTTP ou HTTPS) não foi projetado para cenários de armazenamento em massa (DAV stands for Distributed Authoring and Versioning, que descreve muito bem o fato de que ele foi criado como uma alternativa ao FTP para enviar conteúdo para servidores da Web). Em uma situação ideal para isso, eu usaria o rsync (se eu tivesse muitos arquivos para transferir), ou possivelmente apenas o netcat (se eu precisasse copiar apenas um arquivo grande ).

    
por 08.09.2017 / 20:04
0

Eu recomendo o uso de duplicidade (mas eu não testei na escala de vários terabytes), que tem muitos backends e faz backups incrementais divididos em partes (por padrão, 25 MB) e só precisa baixar os chunks, que são realmente necessários para uma restauração. Eu sugeriria usá-lo com o scp / sftp, pois funcionará bem.

Se você precisar fazer backup tão rápido quanto sua rede é capaz de transferir arquivos, nenhum desses protocolos é ideal. Mas, para um backup grande e, em seguida, backups incrementais diários (ou mesmo de hora em hora) de apenas alguns duplicidades gb devem funcionar bem.

    
por 08.09.2017 / 16:19