NVidia ION e / dev / mapper / nvidia_… problemas

4

Eu tenho uma placa NVidia ION com 4 portas SATA e quero usá-la para executar um servidor Linux (CentOS 5.4). Eu primeiro conectei 3 HDs (que serão uma matriz RAID5) e uma quarta HD de inicialização pequena.

Comecei a usar o recurso RAID onboard, mas isso não funciona corretamente no Linux: a capacidade RAID não é um RAID real, mas usa lvm para definir alguns arays.

Após a configuração do BIOS de volta ao modo SATA normal e passando os HDs, o primeiro disco rígido de inicialização (/ dev / sda) é visto como / dev / sda ANTES da montagem e depois da montagem como / dev / mapper / nvidia_. O CentOS não pode instalar nele (e o grub também não pode ser instalado nele).

Então, de alguma forma, o disco rígido ainda é visto como se pertencesse a algum volume lvm. Eu tentei limpar o HD emitindo alguns comandos dd if=/dev/zero of=/dev/sda para limpar os cilindros de partida e os cilindros finais, mas sem sucesso.

Alguém viu esse problema e alguém encontrou uma solução?

UPDATE

Quando eu crio apenas uma única partição ext3 no primeiro HD (/ dev / mapper / nvidia _...) nenhuma partição LVM é vista e posso inicializar a partir de / dev / mapper / nvidia _ Agora o próximo passo é ver como posso me livrar dessa loucura.

    
por Ritsaert Hornstra 18.02.2010 / 12:00

1 resposta

5

Eu acho que seu problema tem mais a ver com dmraid do que o LVM (veja observe sobre um problema semelhante).

dmraid é a instalação do fakeRAID do Linux. Ele e o LVM (e MD RAID, o recurso RAID de software do Linux) usam dispositivos / dev / mapper , mas, até onde eu sei, o LVM requer uma partição padrão no disco para usar como um volume físico (PV ). / dev / mapper / nvidia _ * provavelmente se refere a um conjunto fakeRAID em um chipset NVidia (usando o módulo do kernel sata_nv ).

Sob essa teoria, o que está acontecendo é que seu kernel está detectando a presença dos metadados RAID antigos nas unidades e configurando automaticamente o mapeador de dispositivos (via dmraid ) para usá-los. Se fosse LVM, acho que você seria capaz de dizer com fdisk -l /dev/sda .

Se o seu objetivo for retornar a um acesso ao disco estilo simples / dev / sda , você precisará:

  1. Verifique se o DMraid ou o LVM estão em uso.

    • DMraid: tente dmraid -s ou dmraid -r
    • LVM: tente pvscan ou vgscan (?)
    • Você também deve tentar dmsetup ls para consultar o mapeador de dispositivos diretamente.

  2. Se um ou outro estiver em uso, use essas ferramentas de configuração para removê-los.

    • DMraid: não tenho certeza. Você pode desativar conjuntos RAID com dmraid -an , mas isso pode não ser suficiente. A página do manual sugere que dmraid -r -E pode apagar os metadados, o que pode ser necessário.
    • LVM: pvremove ou vgremove (ou ambos)
    • Você também pode precisar executar dmsetup remove ou dmsetup remove_all para excluir dispositivos do driver do mapeador de dispositivos.

  3. ??

Em suma, você pode ter que jogar com os comandos dmraid , dmsetup e vários LVM para ver por que seu sistema insiste em ativar o mapeador de dispositivos. lsmod pode ser útil para identificar os módulos do kernel em uso, para que você possa desligá-los, se necessário.

Veja também:

  • dmraid(8) e dmsetup(8) manpages
  • Veja esta mensagem para ver o RAID e o LVM / dev / mapper dispositivos. Contexto não muito relevante, mas bom, e mostra o uso real dos comandos dmraid .
por 19.02.2010 / 11:29