ZFS com dois discos: isso faz sentido? qual é a configuração mais segura?

12

Estou no processo de planejar um servidor de arquivos para uso privado (pequenas quantidades de vários tipos de dados, mas principalmente fotos, vídeos, músicas). Provavelmente usarei NAS4free / FreeNAS e quero testar o ZFS.

Meu foco não é velocidade, é confiabilidade e segurança de dados. No entanto, eu quero manter as coisas 'baratas', então eu quero rodar o ZFS espelhado entre dois discos (forma 'raid 1'). Eu vou comprar uma placa de consumo, então não há controlador de raid de hardware. Até agora, estou pensando em usar o comando 'mirror' do ZFS para essa ou qualquer opção correspondente fornecida pelo FreeNAS.

Ao ler sobre este tópico, eu principalmente vejo pessoas usando três discos e, em seguida, usando RAIDZ-1, que os torna imunes no caso de um disco falhar. O que eu não entendi até agora é qual é o problema em ter o ZFS espelhado entre dois discos apenas? Como vou notar quando um disco falhar? Qual é a estratégia de failover? Acabei de receber uma mensagem dizendo que o sistema de arquivos não é utilizável, porque o disco A está falhando e eu devo substituí-lo agora ? Espero que seja possível obter um benefício real ao executar dois discos espelhados do que usar apenas um.

Dado dois discos equivalentes, em qual modo ZFS você rodaria?

    
por Jan-Philip Gehrcke 22.07.2013 / 19:20

3 respostas

10

Para dois discos, você quer o modo mirror . Isso fará com que as unidades sejam imagens exatas umas das outras. Se o ZFS tentar ler um bloco de dados da unidade e falhar na verificação, o ZFS tentará repará-lo automaticamente. Se o reparo falhar, ele o lerá da outra unidade e marcará a unidade defeituosa como falha. Você deve receber uma notificação de que uma unidade falhou, mas o sistema de arquivos ainda poderá ser usado. Você obtém algumas melhorias de velocidade de leitura, mas sem melhorias na velocidade de gravação. Desde que você tenha pelo menos uma unidade de um conjunto de espelhos, você tem todos os seus dados.

Com raidz , você precisa de pelo menos três unidades. Eles funcionam de maneira semelhante ao RAID5, onde (efetivamente) uma unidade armazena informações de recuperação e as outras unidades armazenam dados. Ele pode manipular qualquer unidade com falha, contanto que apenas uma unidade falhe por vez .

raidz2 e raidz3 são iguais a raidz , exceto pelo fato de que eles podem manipular dois ou três drives com falha, respectivamente. Eles exigem mais unidades para operar e reduzir a capacidade efetiva.

    
por 22.07.2013 / 20:27
3

O ZFS Mirror é o caminho a percorrer se você tiver dois discos semelhantes e procurar confiabilidade e segurança de dados.

O RAIDZ é uma solução mais barata, pois uma porcentagem menor de armazenamento é dedicada à segurança de dados, mas o espelhamento é mais rápido.

Sobre a detecção e manipulação de falhas, você precisa monitorar seu pool ( zpool status ) para saber se há erros presentes.

Você pode regularmente limpar seu pool para verificar sua saúde ( zpool scrub poolname )

O ZFS irá automaticamente auto-curar aqueles que puder, mas caso um disco inteiro falhe, você precisará adicionar um novo disco ao conjunto para substituir o disco quebrado. O pool automaticamente fará o resilver do novo disco (ou seja, copiar os dados do lado do espelho saudável).

Não estou familiarizado com o NAS4Free, portanto sugiro apenas os comandos da CLI para usar. A GUI deve fornecer um front-end para a maioria ou para todos eles.

Note que os níveis NAS4Free Raid (0/1/5 e combinação) são diferentes do que as faixas do ZFS / mirror / raidz e combinação. Sugiro usar apenas o último, ou seja, não há nenhum ponto para criar um pool do ZFS em um volume composto de uma invasão de software 1 (espelho). Você perderia muitos recursos oferecidos pelo ZFS.

    
por 22.07.2013 / 20:28
0

raid0 não é mirror, raid1 é, e você pode usar 2 discos para configurar o raid1, que pode tolerar um disco com falha. O raid0 não tolera qualquer falha no disco.

no entanto, você precisa de pelo menos 3 discos para o raidz.

    
por 22.07.2013 / 19:51

Tags