Eu tenho um servidor de monstros que estou provisionando no minuto.
Existem 15 x 8 TB HDDs conectados a uma placa de interface SATA que estou usando para criar um volume ZFS. Todas as unidades são detectadas e eu tenho as bibliotecas do ZFS instaladas e elas estão prontas etc.
Eu criei meu volume do ZFS usando zpool. Optei pelo RAIDZ2, pois quero dupla paridade para a tolerância a falhas extra.
zpool create -f diskpool1 raidz2 sdc sdd sde sdf sdg sdh sdi sdj sdk sdl sdm sdn sdo sdp sdq
e se eu verificar o status, tudo bem:
[root@BACKUPNAS-I ~]# zpool status
pool: diskpool1
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
diskpool1 ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 0
sde ONLINE 0 0 0
sdf ONLINE 0 0 0
sdg ONLINE 0 0 0
sdh ONLINE 0 0 0
sdi ONLINE 0 0 0
sdj ONLINE 0 0 0
sdk ONLINE 0 0 0
sdl ONLINE 0 0 0
sdm ONLINE 0 0 0
sdn ONLINE 0 0 0
sdo ONLINE 0 0 0
sdp ONLINE 0 0 0
sdq ONLINE 0 0 0
errors: No known data errors
Mas se eu verificar o espaço em disco, estou mostrando apenas 87Tb: (
[root@BACKUPNAS-I ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/centos-root 50G 3.0G 47G 6% /
devtmpfs 7.7G 0 7.7G 0% /dev
/dev/mapper/centos-home 154G 54M 154G 1% /home
/dev/md126p1 497M 188M 310M 38% /boot
diskpool1 87T 256K 87T 1% /diskpool1
Eu sei que os níveis de raid variam de acordo com os padrões RAID ao usar o ZFS, devido às suas origens, no entanto, previ que teria cerca de 104TB utilizável com uma configuração semelhante a RAID6, dando-me uma tolerância a falhas de 2 discos piscina.
Não estou fazendo algo corretamente, ou é simplesmente o caso de usar o que é essencialmente 'software RAID' com o ZFS ocupa muito espaço (2 ou mais do meu disco rígido de 8 TB vale a pena!)