Se você estiver usando multicast, verifique seu suporte a igmp em seu switch e, em seus hosts de cluster, verifique o status dos membros do core corosync
corosync-cfgtool -s corosync-cmapctl | grep mem
Obrigado
Estou tendo alguns problemas ao configurar o marcapasso + corosync entre o Centos 5 e o Centos 6. Aqui está a saída de crm_mon:
no node1:
Last updated: Sun Jul 21 19:02:21 2013
Last change: Sun Jul 21 18:14:48 2013 via crmd on svr077-53149.localdomain
Stack: openais
Current DC: svr077-53149.localdomain - partition WITHOUT quorum
Version: 1.1.8-2.el5-394e906
2 Nodes configured, 2 expected votes
1 Resources configured.
Online: [ svr077-53149.localdomain ]
OFFLINE: [ svr423L-2737.localdomain ]
Crond (lsb:crond): Started svr077-53149.localdomain
no node2:
Last updated: Sun Jul 21 19:03:40 2013
Last change: Sun Jul 21 18:14:56 2013
Stack: classic openais (with plugin)
Current DC: NONE
1 Nodes configured, 2 expected votes
0 Resources configured.
ONLINE: [ svr423L-2737.localdomain ]
Aqui está o meu log do corosync
Minha pergunta é:
Aqui está a minha versão do software em dois nós:
Node1:
- Corosync version 1.4.3
- Pacemaker version 1.1.8-2.el5
- Centos release 5.8 (Final)
e
Node2:
- Corosync version 1.4.1
- Pacemaker version 1.1.8-7.el6
- Centos release 6.4 (Final)
UPDATE Quando eu configurei a primeira vez, tudo deu certo. Depois de desligar o nó 1, ligue-o para testar o caso de failover, esse problema ocorreu.
Se você estiver usando multicast, verifique seu suporte a igmp em seu switch e, em seus hosts de cluster, verifique o status dos membros do core corosync
corosync-cfgtool -s corosync-cmapctl | grep mem
Obrigado