Primeiro, eu não sou especialista em linux, venho seguindo tutoriais e trabalhando com a ajuda do google, isso funcionou bem até agora, mas atualmente estou com um problema.
Estou usando o CentOS 6.5 e o DRBD versão 8.4.4.
Eu tenho dois nós executando o marca-passo, até agora tudo tem funcionado, configurei o DRBD e posso definir manualmente um nó como principal e montar o recurso do DRBD, de modo que também esteja funcionando.
agora criei um recurso de marcapasso para controlar o DRBD, mas ele não promove nenhum dos dois nós a serem controlados, o que também impede que ele seja montado.
O status de
pcs é assim:
Cluster name: hydroC
Last updated: Wed Jun 25 14:19:49 2014
Last change: Wed Jun 25 14:02:25 2014 via crm_resource on hynode1
Stack: cman
Current DC: hynode1 - partition with quorum
Version: 1.1.10-14.el6_5.3-368c726
2 Nodes configured
4 Resources configured
Online: [ hynode1 hynode2 ]
Full list of resources:
ClusterIP (ocf::heartbeat:IPaddr2): Started hynode1
Master/Slave Set: MSdrbdDATA [drbdDATA]
Slaves: [ hynode1 hynode2 ]
ShareDATA (ocf::heartbeat:Filesystem): Stopped
ShareData permanece parado porque não há mestre
Inicialmente, segui este tutorial: link
é assim que aparece a configuração do pacemaker:
Cluster Name: hydroC
Corosync Nodes:
Pacemaker Nodes:
hynode1 hynode2
Resources:
Resource: ClusterIP (class=ocf provider=heartbeat type=IPaddr2)
Attributes: ip=10.0.0.100 cidr_netmask=32
Operations: monitor interval=30s (ClusterIP-monitor-interval-30s)
Master: MSdrbdDATA
Meta Attrs: master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify
=true
Resource: drbdDATA (class=ocf provider=linbit type=drbd)
Attributes: drbd_resource=r0
Operations: monitor interval=60s (drbdDATA-monitor-interval-60s)
Resource: ShareDATA (class=ocf provider=heartbeat type=Filesystem)
Attributes: device=/dev/drbd3 directory=/share/data fstype=ext4
Operations: monitor interval=60s (ShareDATA-monitor-interval-60s)
Stonith Devices:
Fencing Levels:
Location Constraints:
Ordering Constraints:
promote MSdrbdDATA then start ShareDATA (Mandatory) (id:order-MSdrbdDATA-Share
DATA-mandatory)
Colocation Constraints:
ShareDATA with MSdrbdDATA (INFINITY) (with-rsc-role:Master) (id:colocation-Sha
reDATA-MSdrbdDATA-INFINITY)
Cluster Properties:
cluster-infrastructure: cman
dc-version: 1.1.10-14.el6_5.3-368c726
no-quorum-policy: ignore
stonith-enabled: false
Eu já tentei coisas diferentes, como definir uma restrição de local ou usar configurações de recursos diferentes ... Eu tirei isso de outro tutorial:
Master: MSdrbdDATA
Meta Attrs: master-max=1 master-node-max=1 clone-max=2 notify=true target-role
=Master is-managed=true clone-node-max=1
Resource: drbdDATA (class=ocf provider=linbit type=drbd)
Attributes: drbd_resource=r0 drbdconf=/etc/drbd.conf
Meta Attrs: migration-threshold=2
Operations: monitor interval=60s role=Slave timeout=30s (drbdDATA-monitor-int
erval-60s-role-Slave)
monitor interval=59s role=Master timeout=30s (drbdDATA-monitor-in
terval-59s-role-Master)
start interval=0 timeout=240s (drbdDATA-start-interval-0)
stop interval=0 timeout=240s (drbdDATA-stop-interval-0)
mas o resultado permanece o mesmo, nenhum dos nós é promovido a mestre.
Eu gostaria de receber ajuda para me ajudar na solução, obrigado antecipadamente.