Perguntas sobre 'mdadm'

um utilitário para administrar dispositivos Linux RAID de software
0
respostas

Recuperando um RAID6 usando ddrescue. mdadm: falha ao adicionar, argumento inválido

Eu tive 3 unidades falhando em questão de uma semana em um RAID6. Felizmente, uma unidade parecia estar bem. Consegui rodar o ddrescue e copiei todos menos uma pequena área (não consegui ler 14MB de 3TB). No entanto, ao tentar montar o array...
04.01.2016 / 13:32
2
respostas

mdadm RAID6, recupera 2 falhas no disco durante a reformulação

Eu estava remodelando minha matriz de 10 discos para 11 para um estado degradado (a unidade que eu quero adicionar já tem dados, mas não tenho onde colocá-los). 2 drives desconectados enquanto estava em execução (problema de energia). Ainda é...
17.06.2015 / 21:17
2
respostas

Como adicionar disco de volta ao RAID e substituir removido

Recebi uma mensagem informando que o RAID entrou em estado degradado: Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sda1[0] sdb1[1] 524224 blocks [2/2] [UU] md2 : active raid10...
03.06.2015 / 16:54
1
resposta

MD reparação setorial RAID

Este artigo afirma que os controladores RAID são inteligentes quanto a erros irrecuperáveis de leitura e tentam reescrever esses setores com a redundância de erros. as unidades de componentes. Se o setor estiver ruim, o firmware do disco realo...
25.07.2014 / 07:12
0
respostas

encolher partição mdadm ao vivo com LVM

Meu objetivo é diminuir uma partição RAID 1 do mdadm enquanto o sistema está em execução. Eu tenho que discos sda e sdb, que constroem minhas duas partições RAID md0 e md1. No md1 eu uso o LVM, o md0 é a partição / boot. Eu já reduzi o tamanho d...
02.04.2014 / 08:24
1
resposta

mdadm raid10 ou problemas de desempenho do nfs?

Eu tenho um novo dispositivo RAID10 mdadm que é saudável, construído a partir de unidades SATA 3 de 4 x 7200 rpm: # cat /proc/mdstat Personalities : [raid10] [raid1] md2 : active raid10 sdc3[5] sda3[4] sdb3[1] sdd3[3] 3885267968 block...
03.01.2014 / 00:43
0
respostas

Restaure o LVM se o VG não for consistente (XenServer 5.6.1)

Eu tenho um VG que usa o PVs / dev / md1 e / dev / md2. Agora, um disco rígido falhou em / dev / md1 : [root@xenserver1 ~]# cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sda3[0] 382320128 blocks [2/1] [U_] md2 : active r...
07.12.2013 / 01:30
0
respostas

Por que mdadm --examine --scan dá duas mesmas ARRAYs? [fechadas]

O seguinte me confunde: [root@mrak ~]# mdadm --examine --scan ARRAY /dev/md/0 metadata=1.2 UUID=d3f800db:26de8691:dc0caf45:0f75028b name=mrak.dex.internal:0 ARRAY /dev/md/0 metadata=1.2 UUID=1870fd84:2234e3d4:580f7634:b0b621e7 name=mrak.dex...
25.02.2013 / 11:51
1
resposta

df mostrando o uso incorreto do disco - disco corrompido

Estou recebendo um resultado bastante estranho do df de um dos meus discos usando o mdadm. É configurado como 4 discos de 2 TB no RAID 10. # df Filesystem Size Used Avail Use% Mounted on /dev/md2 3.6T 40G 3.4T 2%...
13.02.2013 / 06:06
0
respostas

Disco Raid1 degradado após a reinicialização

Estou testando um servidor em nuvem da Rackspace e tenho dois volumes de Armazenamento em Bloco na Nuvem configurados em uma configuração Raid1. Não há arquivos de sistema nesses volumes, eles são puramente para armazenamento. Tudo parece fun...
21.12.2012 / 18:33