Perguntas sobre 'software-raid'

2
respostas

Como invadir a partição raiz existente?

Gostaria de espelhar minha partição raiz (e única) existente em um SSD para outro disco. Deve ser uma espécie de RAID-1, apenas assimétrica * . Eu sei que há a opção mdadm --write-behind , que deve fazer isso. Mas não tenho ideia se é poss...
10.03.2011 / 11:38
2
respostas

Como recupero arquivos de uma única unidade raid1 mdadm degradada? “Não o suficiente para iniciar o array”

Dado um único drive raid1 no estado degradado / reconstruído, ele pode ser montado à força? Gostaria de recuperar todos os arquivos antes de executar a operação perigosa de emparelhamento e reconstrução. Tanto quanto eu posso dizer a unidade est...
13.04.2013 / 10:16
2
respostas

O que significa o número “spare” do mdadm?

Eu criei um RAID 5 baseado em mdadm a partir de seis discos rígidos usando o seguinte comando: # mdadm --create /dev/md0 --level=5 --raid-devices=5 \ /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 \ --spare-devices=1 /dev/sdg1 Eu esper...
29.08.2013 / 08:58
2
respostas

Atualização no local de uma matriz de RAID de software 5

Eu executo uma matriz de raid de software para meus backups, mas meus dados já superaram a capacidade. considerando que eu tenho uma matriz completa de 2,4 TB com drives de 5 * 600GB e também tenho unidades de 5 * 2TB que eu gostaria de troca...
11.08.2010 / 02:18
1
resposta

Não /etc/mdadm.conf em centos 6

Instalei o centos 6 e configurei um novo array RAID com dois discos. tudo está ok e participo o array, mas não vejo nenhum arquivo /etc/mdadm.conf ou /etc/mdadm/mdadm.conf . Eu reiniciei minha máquina também, mas sem sorte! Você pode me...
24.06.2013 / 16:44
1
resposta

md raid1 Os setores ext3 e 4k são lentos com as operações de diretório

Recentemente, mudei de um gabinete RAID1 de hardware para usar duas unidades eSATA com md. Tudo parece estar funcionando bem, exceto pelo fato de que percursos de diretórios / listagens às vezes rastreiam (na ordem de 10 segundos). Estou usando...
19.11.2013 / 08:24
2
respostas

O sistema garantirá que o mdadm seja sincronizado antes de concluir a reinicialização?

Esta é uma continuação do meu problema louco do mdadm . Eu estou tentando descobrir o que pode ter causado sda para sair de sincronia em primeiro lugar. A única coisa que posso pensar é que eu tinha acabado de executar um monte de atualiz...
30.10.2010 / 15:47
2
respostas

Como o Linux md-RAID lida com erros de leitura de disco?

Existem dois casos: o comando de leitura expira no nível do kernel (30 segundos por padrão), o disco relata sua incapacidade de ler um determinado setor antes do kernel perder a paciência (o caso em que estou interessado). Tempo limit...
03.11.2013 / 23:05
3
respostas

RAID 1 no linux

Eu gostaria de configurar o RAID 1 com duas unidades no linux. Eu não tenho um controlador RAID de hardware e não quero comprar um, então qual é a melhor opção RAID de software para o Linux? Nota: Se isso faz diferença, estou executando o Gen...
10.08.2010 / 21:53
3
respostas

IO pobre devido ao ordenamento de LUKS / Software RAID / LVM? ______ qstntxt ___

Estou tentando determinar se devo reorganizar minha matriz RAID devido ao desempenho ruim do IO. Primeiro, o sistema:

  • i7 920
  • 4 unidades verdes WD 5400 de 4 TB
  • CentOS 6.3 host

Em segundo lugar, a configuração do disco:

  • / dev / sda2, b2, c2, d2 são criptografados individualmente pelo LUKS
  • / dev / mapper / a2, b2, c2, d2 fazem parte de um software RAID5 / dev / md1
  • / dev / md1 tem LVM além disso
  • O LVM é usado para separar /, / storage e swap

Eu escolhi essa estrutura para permitir várias instâncias do kcryptd, pensando que, ao fazer isso, eu obteria suporte multithread na criptografia, já que uma instância está sendo executada por unidade. No entanto, estou começando a me perguntar se foi uma boa ideia.

Por exemplo, se eu executar uma rotina de descompressão pesada em um arquivo RAR de dados aleatórios, meu IO Wait aumenta para cerca de 25% e diminui o sistema geral. Eu estou querendo saber se todos os conjuntos de instruções estão recebendo backup de alguma forma devido a todos os processos do kcryptd.

Por isso, estou pensando em mudar para:

  • / dev / sda2, b2, c2, d2 são colocados em / dev / md1
  • / dev / md1 é criptografado e mapeado para / dev / mapper / 1
  • LVM em cima de / dev / mapper / 1

Isso cairia em um único processo kcrpytd, que poderia ser um gargalo por si só também. Alguém acha que isso ajudará no meu problema de IO?

    
______ azszpr114452 ___

Suas camadas são abaixo do ideal porque colocar o RAID 5 em cima da criptografia significa aumentar em 25% o número de operações de criptografia / descriptografia, pois 4 * 4 TB são criptografados.

Ao colocar a criptografia na parte superior da invasão 5, apenas 3 * 4 TB são criptografados.

O raciocínio por trás disso é: você não precisa criptografar dados de paridade (que ocupam 4 TB em seu exemplo) de dados criptografados porque isso não aumenta sua segurança.

Sua presunção sobre vários processos kcrypt é apenas isso. Ao basear as decisões nele, é uma otimização prematura que pode ter o efeito oposto. Seu i7 é bastante robusto, provavelmente incluindo algumas instruções especiais que ajudam a acelerar o AES - e o kernel do Linux inclui várias variantes otimizadas de primitivas criptográficas que são automaticamente selecionadas durante a inicialização.

Você pode verificar se as rotinas otimizadas para sua CPU são usadas via %code% (por exemplo, sinalizador %code% ), %code% , %code% (a menos que os módulos aes sejam compilados no kernel) e log do kernel.

Você deve comparar o throughput do kryptd sem envolver nenhum disco lento para ver qual é o limite superior (isto é, em um disco RAM usando o iozone).

Para diagnosticar possíveis problemas de desempenho mais tarde, também é útil fazer um benchmark de sua configuração de escolha de RAID sem qualquer criptografia para obter um limite superior nesse ponto.

Além do tópico de criptografia, o RAID 5 envolve mais IO-Operations do que o RAID 1 ou 10. Como o armazenamento é meio barato, talvez seja uma opção para comprar mais discos rígidos e usar outro nível de RAID.

    
______ azszpr114404 ___

Eu Raid 1 + 0 [a2, b2] + [c2, d2], depois LVM sobre LUKS.

Exemplo

%pre%

OBSERVAÇÃO: Estruturar desta forma criará uma faixa de espelhos permitindo que um máximo de 2 discos falhe (um em cada espelho max) e lhe dará um espaço total / 2 em oposição a raid5 que é total * ~ 0,75.

Também acredito que este esquema é significativamente mais rápido porque o RAID5 é conhecido por prejudicar o desempenho, mas você terá menos espaço disponível.

Você também pode verificar a cifra, embora eu ache que aes-cbc-essiv é o padrão e razoavelmente rápido, mas você poderia usar aes-xts-plain, que deveria ser mais rápido.

    
______ azszpr114424 ___

Sua configuração significa que mais dados precisam ser criptografados no total ao gravar (os dados de paridade). Se sua criptografia já estiver lenta, a propriedade de vários núcleos pode não ser suficiente para compensar isso. Ao ler, não deve fazer diferença (os dados de paridade normalmente não são lidos). Isso ainda não está considerando quaisquer efeitos colaterais com o tempo mdadm ou o que quer que seja.

Eu tomei uma abordagem diferente; em vez de fazer um grande RAID, particionei meus discos e criei vários discos menores (por exemplo, 8x 250G partições em um disco de 2TB). Isso significa 8 RAIDs em vez de 1, 8 contêineres LUKS e o LVM conecta tudo novamente em um grande VG.

Em seguida, contanto que você tenha processos trabalhando em diferentes áreas do disco, os vários contêineres e RAIDs do LUKS funcionariam independentemente um do outro. Não é verdadeira criptografia paralela (o kernel ainda não suporta isso sozinho?), Mas funcionou muito bem para mim.

Eu mantive essa configuração até mesmo em minha nova caixa Haswell, onde a criptografia não é um problema, graças ao AES-NI. Eu fiz isso porque há outros efeitos colaterais positivos. Por exemplo, um único setor defeituoso faria com que apenas uma parte de 250G de um disco caísse do RAID, enquanto o outro 1750G permanecesse redundante; ou se há um bug como o pânico do kernel RAID5 no 3.13.0, apenas um dos RAIDs precisa ser ressincronizado ao invés de todos eles.

Ao mesmo tempo, não notei nenhum problema de desempenho, diferente de outras soluções, como o bitmap com intenção de gravação, etc.

    
___

Estou tentando determinar se devo reorganizar minha matriz RAID devido ao desempenho ruim do IO. Primeiro, o sistema: i7 920 4 unidades verdes WD 5400 de 4 TB CentOS 6.3 host Em segundo lugar, a configuração do disco: / dev / sda2...
09.02.2014 / 18:03