O software RAID5 ou zraid1 é inerentemente rígido para hardware de unidade no CentOS 7 Linux?

0

Eu tive problemas persistentes usando matrizes de disco rígido montadas externamente sob o CentOS 7, seja conectado por meio de uma conexão USB3 ou eSATA, onde o formato de dados usava a redundância única em uma matriz de 5 unidades. As mesmas unidades e gabinete externo nunca tiveram um problema na configuração de faixa ou espelho.

Esclarecimento para @Attie: Com isso quero dizer que eu tenho uma faixa raid0 em operação contínua em 5 unidades idênticas em um gabinete idêntico anexado a uma placa de interface idêntica no servidor. Isso equivale a um conjunto de armazenamento de 5 GB que, até o momento, não teve nenhum evento ou corrupção off-line. O array redundante é de 4 GB com paridade de 1 GB. O espelho era duas unidades com um hot spare usando primeiramente o RAID1 e depois um espelho zfs.

Eu posso trabalhar a velocidade da matriz stripe com nunca um problema. Posso exportar o pool zfs do array redundante e executar, digamos, badblocks em cada drive desse array simultaneamente e não ver nenhum sinal de problema.

O sintoma parece ser que todas as unidades foram descartadas simultaneamente e o controlador de matriz (md ou zfs) está pensando que há uma falha catastrófica na unidade e não está sendo resolvida.

O denominador comum é o formato de dados, mas o sintoma não parece corresponder ao desgaste da unidade. Em vez disso, o sintoma sugere desistências de interconexão da caixa de unidades para o servidor.

Eu tenho visto algumas sugestões de unidades com um limite de RAID, no entanto, não sei como uma unidade sabe que está em um RAID e o que isso muda em relação ao seu limite. Eu também vi alguma menção em fóruns de 'Ah, eu vejo que você está usando WD Reds', no entanto, não consegui localizá-lo novamente como referência aqui.

Existe algo de intenso na maneira como o RAID5 e o zraid1 trabalham com discos rígidos, ao ponto de a interconexão de cabo único ser reiniciada ou desconectar-se momentaneamente? Existe alguma solução para esta condição?

  • Especificação do inversor: 1TB WD Red WD10EFRX SATA 3.5
  • chip multiplexador da unidade de disco eSATA: SiI 3726
  • chip do host do servidor eSATA: SiI 3132
  • Caixa de drive USB3: ICY BOX IB-3810U3
      Chip de multiplexador: ASMedia ASM1074L
  • Host USB3 da placa-mãe do servidor: Gigabyte GA-B85-HD3 SKT 1150

Perguntas relacionadas: O conjunto do ZFS anexado externamente desliga, não sinal de erros nas unidades

    
por J Collins 07.12.2017 / 12:43

1 resposta

0

Eu já vi suas outras perguntas sobre esse gabinete ... isso pode não ser "responder" padrão, mas é demais para um comentário.

Por favor, você pode esclarecer seus comentários:

  • Você estava usando uma faixa de disco de 5x? (qual era o tamanho da faixa?)
  • Quantos discos foram envolvidos no espelho?
  • Você já tentou uma configuração do tipo RAID10?

Se você simplesmente colocar 5x discos no recinto e tentar acessá-los simultaneamente, verá problemas semelhantes?

Por exemplo, tente o seguinte (ajuste conforme apropriado):

for disk in /dev/sd{a,b,c,d,e}; do
    dd if=${disk} of=/dev/null bs=512 count=4G iflag=count_bytes &
done
wait

Isso acessará todos os discos 5x ao mesmo tempo, com blocos de 512 bytes, lendo os primeiros 4GiB.

Que tal escrever para os discos individuais?

    
por 07.12.2017 / 14:05