Problema com o controlador de cluster MAAS, a instalação falha

0

Depois de muitos problemas (consulte a link ) que tenho um novo problema.

Basicamente, após a instalação do comissionamento falhar. Eu realmente não sei o que está acontecendo. Primeiro, o que é estranho é que a instalação faz o download da imagem do controlador de região em vez do controlador de cluster. O resultado é que o processo de instalação demora muito. Na verdade, é por isso que instalamos um controlador de cluster independente. Depois disso, recebo alguns "Falha ao consultar o BMC do nó" antes de a implantação ser marcada com falha.

Alguém pode ajudar nessa questão?

Até agora, minhas descobertas são trabalhos de instalação, nem em uma segunda interface de cluster ( link ) nem no controlador de cluster independente, o que é bastante decepcionante (e isso talvez porque o controlador de região é usado durante a instalação quando parece lógico que o controlador de cluster seja usado) ...

Minha versão do maas é 1.7.1 + bzr3341-0ubuntu1 ~ trusty1.

A ajuda seria muito apreciada.

Editar

Para dar mais detalhes, a arquitetura é conforme abaixo. Eu também dou a lista de eventos. Também me pergunto se é importante que o nome de domínio possa ser resolvido como se eu pudesse ver o nome de domínio fornecido do nó (em outras palavras, o nó é provisionado com o nome de domínio name.maas, mas também é editado para ser registrado como nome. domínio). Com um Controlador de Região e um Controlador de Cluster básicos, isso funciona bem e não vejo por que não funcionaria com uma segunda interface ou com um Controlador de Cluster independente. Espero que isso não seja muito confuso.

Site 1: Controlador de região MAAS + MAAS Cluster Controller com duas interfaces / sub-redes. Eu não consigo provisionar nós na segunda interface (aquela não definida para a API).

Site 2: MAAS Cluster Controller com uma interface / sub-rede. O cluster é registrado com o Region Controller e as imagens foram baixadas do Region Controller depois que a resolução de nomes foi implementada corretamente (ainda não sei por que isso é necessário para ter o cluster em sincronia com as imagens). Sem pserv.yaml atualizado com o gerador usando o IP do MAAS Region Controller (veja minha outra pergunta link ), é impossível ter nós inscritos. Com ele o alistamento funciona bem, o comissionamento também, mas a implantação subseqüente parece baixar o que é necessário do Controlador de Região). A instalação demora muito e falha com os detalhes abaixo.

INFO    Thu, 26 March 2015 18:54:40 Installation complete — Node disabled netboot   
WARNING Thu, 26 March 2015 18:50:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
WARNING Thu, 26 March 2015 18:45:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
WARNING Thu, 26 March 2015 18:40:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
WARNING Thu, 26 March 2015 18:38:47 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
INFO    Thu, 26 March 2015 18:36:37 Node changed status — From 'Deploying' to 'Failed deployment'   
WARNING Thu, 26 March 2015 18:35:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
WARNING Thu, 26 March 2015 18:30:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
WARNING Thu, 26 March 2015 18:20:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
WARNING Thu, 26 March 2015 18:15:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
WARNING Thu, 26 March 2015 18:05:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console. 
WARNING Thu, 26 March 2015 18:00:50 Failed to query node's BMC — Node could not be queried node-e7391f8a-d3d5-11e4-aaa5-5254005cf640 (m6.domain) virsh failed with return code 1: Failed to login to virsh console.
DEBUG   Thu, 26 March 2015 17:56:47 TFTP Request — ubuntu/amd64/generic/trusty/release/boot-initrd
DEBUG   Thu, 26 March 2015 17:56:46 TFTP Request - ubuntu/amd64/generic/trusty/release/boot-kernel  
DEBUG   Thu, 26 March 2015 17:56:46 TFTP Request — ifcpu64.c32  
INFO    Thu, 26 March 2015 17:56:46 PXE Request — curtin install    
INFO    Thu, 26 March 2015 17:56:46 PXE Request — curtin install    
DEBUG   Thu, 26 March 2015 17:56:46 TFTP Request — pxelinux.cfg/01-52-54-00-15-a9-ed    
DEBUG   Thu, 26 March 2015 17:56:46 TFTP Request — pxelinux.cfg/01-52-54-00-15-a9-ed    
DEBUG   Thu, 26 March 2015 17:56:46 TFTP Request — pxelinux.cfg/456decab-b186-e9dd-16d5-49e72359e6c3    
DEBUG   Thu, 26 March 2015 17:56:46 TFTP Request — pxelinux.0   
INFO    Thu, 26 March 2015 17:56:43 Node powered on 
INFO    Thu, 26 March 2015 17:56:38 Powering node on    
INFO    Thu, 26 March 2015 17:56:37 Node changed status — From 'Allocated' to 'Deploying'   
INFO    Thu, 26 March 2015 17:56:37 Node changed status — From 'Ready' to 'Allocated' (to root) 
INFO    Thu, 26 March 2015 17:52:44 Node changed status — From 'Commissioning' to 'Ready'

Editar

Gostaria de saber se há algo em comum com esse antigo link .

Realmente, posso ver o seguinte ao apertar o botão preseed do nó que falhou ao instalar.

#cloud-config
datasource:
  MAAS: {consumer_key: <CONSUMER_KEY>, metadata_url: 'http://<MAAS_REGION_CONTROLLER_IP>/MAAS/metadata/',
token_key: <TOKEN_KEY>, token_secret: <TOKEN_SECRET>}

Acima, preciso ter o IP do Cluster Controller em seu lugar?

Observe que o mesmo se aplica para o caso da segunda interface não funcionar, mas aqui eu esperaria que a outra interface fosse alcançada, pois acho que me livrei de todos os problemas de filtragem de RP, que criaram problemas em algum momento. No entanto, talvez o IP no preseed deva ser o da interface do Controller na sub-rede.

Muito obrigado antecipadamente pela sua ajuda.

Editar

Após desistir por algumas semanas, atualizei para 1,8. A mesma coisa acontece e não consigo entender o porquê. O alistamento funciona com o controlador de cluster remoto, mas, após a instalação do comissionamento, ele usa arquivos da região / controlador de cluster, não do controlador de cluster remoto, e o nó é sinalizado como "Implantação com falha".

A ajuda seria apreciada.

    
por sba 26.03.2015 / 17:46

1 resposta

1

Hurray.

Eu finalmente resolvi o problema com meu controlador de cluster remoto logo após editar meu post e isso por acidente.

A solução é a seguinte.

Ao criar o controlador de cluster remoto (denominado Cluster 2 no meu caso), adicione uma zona DNS diferente à do controlador de cluster associado ao controlador de região (denominado Cluster 1 no meu caso). Por padrão é maas, então mude para maas2 (então maas para Cluster 1 e maas2 para Cluster 2).

Após o novo nó ser inscrito ao editar para o Cluster, escolha "maas2" (na lista em vez de ter maas e massa, você tem maas e maas2). Esta maneira de nomear o cluster com o nome da zona é estranha para mim, mas é assim que funciona.

Agora comissione e instale. Boom, a instalação escolhe os controladores de cluster certos e leva apenas alguns segundos e o mais importante é o sucesso.

Espero que isso ajude alguém, já que isso realmente me bloqueou por várias semanas.

Ainda preciso encontrar como ter o controlador de cluster remoto agindo como um servidor de nomes, pois agora o controlador de região atua como um nome, embora o arquivo zone.maas2 pareça indicar também o controlador de cluster remoto como um servidor de nomes.

    
por sba 09.07.2015 / 12:29