mdadm Boot Error, incrementalmente iniciando o array de raid Ubuntu SErver 14.04

5

eu construo um pequeno servidor com o Ubuntu 14.04 para o Samba, Eu tenho um drive SSD (a instalação do Ubuntu está nele) e 2 discos SATA de 3 TB, o disco sata é combinado a um Raid 1 com mdadm.

Agora, às vezes (não toda vez, acho que talvez esteja relacionado a um desligamento sujo) o sistema trava no processo de inicialização:

incrementally starting raid arrays
mdadm: Create user root not found 
mdadm: create group disk not found 
incrementally started raid arrays

estas 4 linhas continuam repetindo. É realmente estranho porque o volume de inicialização (o ssd) não está configurado como raid e isso não deve afetá-lo?

Edição importante: se eu pressionar ctrl + alt + del, o servidor reinicia e inicia normalmente se eu olhar para o raid dev mdadm --detail /dev/md0 após o boot, tudo parece bem.

Eu não sou um pro linux e não encontrei nada na internet relacionado a esses erros, então agora eu estou um pouco preso, talvez alguém tenha uma idéia de qual poderia ser o problema ou algum aviso avançado de solução de problemas arquivos etc)?

obrigado pela leitura Saudações Stefan

    
por user279118 07.05.2014 / 20:33

5 respostas

3

Também tinha isso. No meu ambiente: 2 HDDs SAS configurados como raid10.

O problema foi que mpt2sas.ko não foi carregado e, portanto, mdadm não pôde ver nenhum disco. Isso, por sua vez, foi causado por um erro de empacotamento: quando o apt estava removendo pacotes wlan desnecessários como o crda, ele também removia automaticamente o pacote linux-image-extra-$VERSION , que na verdade possui mpt2sas.ko .

Para garantir que o módulo seja carregado antes dos módulos raid, eu também fiz um

echo mpt2sas >>/etc/initramfs-tools/modules
    
por 02.09.2014 / 04:54
3

Na minha máquina (Ubuntu confiável) isso foi causado por ter um kernel mais recente (xenial 4.4.0 -series) instalado em / boot e sendo usado por padrão.

Eu resolvi esse problema inicializando uma versão antiga do kernel e executando:

update-initramfs -u
update-grub
    
por 25.03.2017 / 18:51
2

finalmente "corrigiu" o erro. Versão Curta: O Transcend SSD (TS128GSSD25S-M) em combinação com a placa principal ASRock B85M Pro4 causou o erro. Depois de clonar o sistema com clonezilla para um Samsung 840 Evo eu inicializei agora 30 vezes sem problemas.

no relatório de problema profundo: Mas por que o mdadm está aparecendo com problemas de array raid totalmente não relacionados? : Bem, ao criar o RAID Array (ou talvez por padrão? Eu não sei exatamente) mdadm colocar um script de inicialização raid no initramfs. Esse script verifica se o rootfs está montado, se o rootfs (no meu SSD) não está montado ele pula para funcionar mountroot_fail

message "Incrementally starting RAID arrays..."
if mdadm --incremental --run --scan; then
message "Incrementally started RAID arrays."
return 0

Isso leva à saída confusa. Depois de remover esses scripts do initramfs, encontrei o problema real:

Desisti do wiating para o dispositivo raiz. Problemas comuns:

  • Argumentos de inicialização (cat / proc / cmdline)
    • check rootdelay = (o sistema esperou tempo suficiente?)
    • check root = (o sistema esperou pelo dispositivo correto?)
  • módulos ausentes (cat / proc / modules; ls / dev)

    ALERT! /dev/disk/by-uuid/01234567-89ab-cdef-0123-456789abcdef does not exist. Dropping to a shell!
    BusyBox v1.13.3 (Ubuntu 1:1.13.3-1ubuntu11) built-in shell (ash)
    Enter 'help' for a list of built-in commands.
    (initramfs) 
    

Como o erro não é persistente, pensei em testar o SSD e o BAM.

    
por 13.05.2014 / 18:30
1

Para mim, a solução estava faltando entradas "dm-mod", "dm-snapshot" e "dm-mirror" em / etc / initramfs-tools / modules. Eu levei algum tempo para combater esse problema, já que as mensagens de erro estavam falando sobre "mdadm" e raid - então, como se deve adivinhar que lvm é o problema.

Minha configuração: %código% mesmo para sdb

  • sda -> sda1 (0xfd linux raid autodetect, 500MB), sda2 (0xfd linux raid autodetect, 250G)
  • sda1 + sdb1 --> /dev/md0 (mdadm) "/boot"

Eu não coloquei "/ boot" no LVM para evitar problemas com o grub / lvm em primeiro lugar. Mas parece que eu acabei de cair em outro tarpit de grub / lvm / raid: (

Eu acho que o problema foi que o grub montou corretamente o initramfs e então não foi possível montar sda2 + sdb2 --> /dev/md1 (mdadm) --> lvm volume for "swap" and "/" (por causa da falta de módulos lvm) ele tentou inicializar alguns dispositivos de raid.

O / é um pouco enganador, pois pode ser qualquer módulo ausente que impede que incrementally starting raid arrays seja montado. Veja também o post acima sobre a falta do / module.

Além disso, pensei que os módulos mpt2sas não eram necessários, pois são para o dmraid - o que está errado: eles também são necessários para o LVM. Na minha situação eu fiz uma mudança de dmraid de volta para o bom e velho mdadm porque dmraid (fakeraid) causava problemas (um diretório simplesmente desaparecia).

Por último, mas não menos importante, imaginei que posso adicionar arquivos dm_ , dm-mod dm-mirror dm-snapshot and / etc / modules to / etc / initramfs-tools / modules and .ko 'por aquele nome. Deve ser algum tipo de alias de módulo.

    
por 04.12.2014 / 17:58
0

O caso para mim é que eu estava usando um kernel 3.x e atualizei para 4.4.x. A inicialização do kernel 3.x corrigiu e, desde então, removi o 4.4, definitivamente há algo incompatível ou um problema com o initramfs que o acompanha.

    
por 28.03.2017 / 22:34

Tags