o nó do marcapasso é UNCLEAN (off-line)

4

Estou seguindo o documento link para configurar um cluster de 2 nós no AWS. Os dois nós têm o marca-passo instalado e as regras do FW estão ativadas. Quando executo o comando pcs status em ambos os nós, recebo a mensagem de que o outro nó é UNCLEAN (offline).

Os dois nós que eu configurei são ha1p e ha2p.

OUTPUT NO ha1p

[root@ha1 log]# pcs status
Cluster name: mycluster
WARNING: no stonith devices and stonith-enabled is not false
Last updated: Wed Dec 24 21:30:44 2014
Last change: Wed Dec 24 21:27:44 2014
Stack: cman
Current DC: ha1p - partition with quorum
Version: 1.1.11-97629de
2 Nodes configured
0 Resources configured


Node ha2p: UNCLEAN (offline)
Online: [ ha1p ]

Full list of resources:

OUTPUT ON ha2p

[root@ha2 log]# pcs status
Cluster name: mycluster
WARNING: no stonith devices and stonith-enabled is not false
Last updated: Wed Dec 24 21:30:44 2014
Last change: Wed Dec 24 21:27:44 2014
Stack: cman
Current DC: ha2p - partition with quorum
Version: 1.1.11-97629de
2 Nodes configured
0 Resources configured


Node ha1p: UNCLEAN (offline)
Online: [ ha2p ]

Full list of resources:

O conteúdo do /etc/cluster/cluster.conf é o seguinte:

[root @ log ha1] # cat /etc/cluster/cluster.conf

<cluster config_version="9" name="mycluster">
  <fence_daemon/>
  <clusternodes>
    <clusternode name="ha1p" nodeid="1">
      <fence>
        <method name="pcmk-method">
          <device name="pcmk-redirect" port="ha1p"/>
        </method>
      </fence>
    </clusternode>
    <clusternode name="ha2p" nodeid="2">
      <fence>
        <method name="pcmk-method">
          <device name="pcmk-redirect" port="ha2p"/>
        </method>
      </fence>
    </clusternode>
  </clusternodes>
  <cman expected_votes="1" two_node="1"/>
  <fencedevices>
    <fencedevice agent="fence_pcmk" name="pcmk-redirect"/>
  </fencedevices>
  <rm>
    <failoverdomains/>
    <resources/>
  </rm>
</cluster>

Qualquer ajuda seria muito apreciada.

    
por Krishna Kumar R 24.12.2014 / 22:52

3 respostas

1

Isso acontece porque seu cluster não tem configuração stonith completa. Em estado impuro, significa que o cluster não conhece o estado do nó.

    
por 24.12.2014 / 23:48
0

Talvez você possa editar o arquivo / etc / hosts e remover linhas que contenham 127.0.0.1 e :: 1 (linhas que mencionam localhost). Eu tenho esse problema exato e tentei usar esse método e resolvi o problema.

    
por 09.11.2017 / 04:55
0

Sim, você precisa ter certeza de que o nome do host que você está usando em sua definição de cluster NÃO seja o nome do host na linha 127.0.0.1 em / etc / hosts.

Então, meu /etc/hosts é assim:

127.0.0.1   cluster-node1 domain.com localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.0.1     node1
192.168.0.2     node2
    
por 03.01.2018 / 02:03

Tags