Você não pode dizer que deveria. O mapeamento de LUNs RAID para o Ceph é possível, mas você injetará uma camada extra de abstração e, de certa forma, renderizará pelo menos parte da funcionalidade do Ceph.
Tópico semelhante na lista de discussão:
Sou muito novo no ceph e tento descobrir se o ceph suporta HBAs de raids de nível de hardware.
Infelizmente, não foi possível encontrar nenhuma informação. O que eu descobri é que é recomendado usar discos simples para OSD. Mas isso empurra os requisitos para o PCIe, as interfaces do disco para altas larguras de banda e os requisitos de CPU são muito altos. Os controladores RAID de hardware já resolveram esses requisitos e fornecem alta redundância com base nas configurações sem consumir meu PCIe, CPU ou qualquer outro recurso.
Então, minha configuração desejada seria ter controladores RAID locais, que lidem com a minha redundância em disco no nível do controlador (Raid 5, RAID 6) qualquer que seja o nível de RAID de que preciso. Além do que RAID LUNs eu gostaria de usar o ceph para fazer o nível mais alto de replicação entre: host, chassi, rack, linha, datacenter ou o que for possível ou planejado no CRUSH
Alguma experiência nessa configuração?
É uma configuração recomendada?
Alguma documentação detalhada para esta integração RAID de hardware?
Você não pode dizer que deveria. O mapeamento de LUNs RAID para o Ceph é possível, mas você injetará uma camada extra de abstração e, de certa forma, renderizará pelo menos parte da funcionalidade do Ceph.
Tópico semelhante na lista de discussão:
But this pushes the requirements to the PCIe, the interfaces of the disk to high bandwidths and the CPU requirements are very high.
Na verdade, muitas cargas de trabalho de armazenamento são bem atendidas com CPUs e interconexões modernas e gerais.
Sim, um controlador RAID cuida da redundância com um punhado de discos em um chassi. Mas isso é custo e complexidade quando você executa soluções redundantes de armazenamento distribuído de vários nós, como o Ceph. Por que se preocupar em espelhar um disco físico quando o Ceph já possui várias cópias dele?
Os blocos de construção de tal solução são apenas um monte de discos. Por exemplo, Abra o Compute Storage abra o Vault. 30 spindles em um gabinete, conectados a um nó de computação de talvez um par de dúzias de núcleos de CPU. Adicione quantos nós você precisar dimensionar. Você pode deixar esse cálculo dedicado ao Ceph se quiser maximizar o rendimento.
A configuração recomendada é usar discos únicos ou, eventualmente, discos em pares RAID-1.
Um único controlador SAS (ou um controlador RAID no modo JBOD) pode controlar centenas de discos sem problemas.
O uso de matrizes muito grandes derrota o propósito do CEPH, que é evitar pontos únicos de falhas e "pontos quentes". Isso também prejudicará sua redundância.
Digamos que você queira criar um cluster PBB de 1 PB usando unidades de 8 TB, usando o chassi de servidores de 36 discos (hardware comum semelhante ao Supermicro). Vamos comparar as configurações com e sem RAID em termos de capacidade de armazenamento e confiabilidade:
Com o RAID-6, você precisa de 5 chassis (e 10 OSDs).
Com o CEPH e 5 chassis, você terá 180 OSDs.
Tags raid ceph hardware-raid redundancy