Estou testando o SLES 12 w / HAE para executar um cluster de servidor de arquivos que consiste em dois nós. A idéia era usar a reserva persistente SCSI como um método de fence usando o script fence_scsi dos agentes de fence stonith. Dois nós (a, b) são conectados via FC ao mesmo LUN que é exportado via NFS somente a partir do nó ativo.
O problema é com o fence_scsi, pois o crm falha / reclama que o nodename / key não é fornecido.
primitive storage-fence stonith:fence_scsi \
params action=off devices="/dev/mapper/mpath_test" \
op monitor interval=60s timeout=0s
Eu acabo com:
storage-fence_start_0 on fs009a 'unknown error' (1): call=18, status=Error, last-rc-change='Wed Jun 17 00:51:40 2015', queued=0ms, exec=1093ms
storage-fence_start_0 on fs009b 'unknown error' (1): call=18, status=Error, last-rc-change='Wed Jun 17 00:56:42 2015', queued=0ms, exec=1101ms
e
2015-06-17T01:34:29.156751+02:00 fs009a stonithd[25547]: warning: log_operation: storage-fence:25670 [ ERROR:root:Failed: nodename or key is required ]
2015-06-17T01:34:29.156988+02:00 fs009a stonithd[25547]: warning: log_operation: storage-fence:25670 [ ]
2015-06-17T01:34:29.157234+02:00 fs009a stonithd[25547]: warning: log_operation: storage-fence:25670 [ ERROR:root:Please use '-h' for usage ]
2015-06-17T01:34:29.157460+02:00 fs009a stonithd[25547]: warning: log_operation: storage-fence:25670 [ ]
Agora, se nodename
for fornecido, ele não reclamará.
Mas então eu não entendo a configuração de esgrima.
Devo configurar dois recursos stonith:fence_scsi
cada "colados" a cada um dos dois nós?
Este é um exemplo do RHEL que cuida da coisa toda, sem restrições adicionais (e funciona!)
pcs stonith create my-scsi-shooter fence_scsi devices=/dev/sda meta provides=unfencing
Referência da documentação do RHEL
Observe que o SLES12 ainda usa o crm, enquanto o RHEL usa pcs. Também no SLES, o atributo meta provides
não existe. Existe uma maneira de traduzir o comando RHEL pcs para o SLES?
Aqui a configuração completa:
# crm configure show
node 739719956: fs009a \
attributes maintenance=off standby=off
node 739719957: fs009b \
attributes maintenance=off standby=off
primitive clusterIP IPaddr2 \
params ip=172.23.59.22 cidr_netmask=25 \
op monitor interval=10s timeout=20s \
op stop interval=0s timeout=20s \
op start interval=0 timeout=20s
primitive fs_storage_test Filesystem \
params device="/dev/mapper/mpath_test_part1" directory="/TEST" fstype=ext4 \
op monitor timeout=40 interval=20 \
op start timeout=60 interval=0 \
op stop timeout=60 interval=0 \
meta target-role=Started
primitive nfs-server systemd:nfsserver \
op monitor interval=60 timeout=15 \
op start interval=0 timeout=15 \
op stop interval=0 timeout=15
primitive storage-fence stonith:fence_scsi \
params action=off devices="/dev/mapper/mpath_test" verbose=false \
op monitor interval=60s timeout=0s \
meta target-role=Started
group nas-service clusterIP fs_storage_test nfs-server \
meta target-role=Started
location constraint-location-a nas-service 100: fs009a
property cib-bootstrap-options: \
dc-version=1.1.12-ad083a8 \
cluster-infrastructure=corosync \
cluster-name=fs009 \
stonith-enabled=true \
no-quorum-policy=stop \
last-lrm-refresh=1434493344
rsc_defaults rsc-options: \
resource-stickiness=100
corosync.conf link
corosync 2.3.3
pacemaker 1.1.12