O Ceph e o GlusterFS são o local onde a tecnologia FS em cluster está atualmente em andamento. Como não estou familiarizado com o GlusterFS, falarei sobre os recursos do Ceph.
Ceph escala horizontalmente; quanto mais nós de baixo custo você adicionar, melhor será o desempenho. Ao contrário do GlusterFS, este é um benefício principal para o Ceph, uma vez que fragmenta os dados.
No entanto, o Ceph está em desenvolvimento ativo (ele está pronto para produção, exceto para o Ceph FS) e requer um kernel moderno (enquanto escrevo este, nem mesmo o kernel padrão do CentOS 6.5 pode aproveitar os recursos do RBD / CephFS). Para contornar isso, instalei o ELRepo kernel-lt
.
Para dividir isso para você:
- O Cephs RBD é um substituto de SAN em cluster; você pode criar dispositivos "virtuais" que estão no cluster e podem ser montados em servidores. Nota: Apenas um servidor deve ter uma imagem RBD montada ao mesmo tempo (você não quer que vários sistemas operacionais montem uma unidade SATA)? Você formatará o disco RBD,
mount
como normal e, em seguida, disponibilizará o NFS / CIFS. Se o servidor que fornece o NFS / CIFS ficar inativo, nenhum dado será perdido. - O Ceph FS é um repositório de NAS em cluster (embora não esteja pronto para produção); Ele fornece recursos de bloqueio de arquivos que são necessários para um FS em cluster compartilhado entre servidores (como, por exemplo, um servidor da Web).
O RBD é executado no espaço do kernel; por isso não há nenhum impacto no desempenho do fusível. O Ceph FS também é executado no espaço do kernel, mas pode ser executado com o FUSE.
O Ceph também é muito fácil de implantar:
-
pip install ceph-deploy
em um nó admin (sua área de trabalho / estação de trabalho). - Adicione os repos do RPM Inktank e
ceph-deploy install node1 node2 ... nodeN
para instalar o ceph em todos os nós.