Prove que estou errado, mas o IIRC só pode montar um FS em um dos nós ao mesmo tempo. Tê-los sincronizar, desmontar / dados. Alterne, monte-o no node2 e você verá todos os dados.
Estou tentando aprender drbd com o centoOS 6.3 na caixa virtual, eu tenho dois vm configurados, o node1 e o node2, eu copio o arquivo para o ponto de montagem / data que é / dev / drbd0 do node1, mas não refletir para o node2's / data
aqui é a configuração
# You can find an example in /usr/share/doc/drbd.../drbd.conf.example
#include "drbd.d/global_common.conf";
#include "drbd.d/*.res";
global {
# do not participate in online usage survey
usage-count no;
}
resource data {
# write IO is reported as completed if it has reached both local
# and remote disk
protocol C;
net {
# set up peer authentication
cram-hmac-alg sha1;
shared-secret "s3cr3tp@ss";
# default value 32 - increase as required
max-buffers 512;
# highest number of data blocks between two write barriers
max-epoch-size 512;
# size of the TCP socket send buffer - can tweak or set to 0 to
# allow kernel to autotune
sndbuf-size 0;
}
startup {
# wait for connection timeout - boot process blocked
# until DRBD resources are connected
wfc-timeout 30;
# WFC timeout if peer was outdated
outdated-wfc-timeout 20;
# WFC timeout if this node was in a degraded cluster (i.e. only had one
# node left)
degr-wfc-timeout 30;
}
disk {
# the next two are for safety - detach on I/O error
# and set up fencing - resource-only will attempt to
# reach the other node and fence via the fence-peer
# handler
#on-io-error detach;
#fencing resource-only;
# no-disk-flushes; # if we had battery-backed RAID
# no-md-flushes; # if we had battery-backed RAID
# ramp up the resync rate
# resync-rate 10M;
}
handlers {
# specify the two fencing handlers
# see: http://www.drbd.org/users-guide-8.4/s-pacemaker-fencing.html
fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";
}
# first node
on node1 {
# DRBD device
device /dev/drbd0;
# backing store device
disk /dev/sdb;
# IP address of node, and port to listen on
address 192.168.1.101:7789;
# use internal meta data (don't create a filesystem before
# you create metadata!)
meta-disk internal;
}
# second node
on node2 {
# DRBD debice
device /dev/drbd0;
# backing store device
disk /dev/sdb;
# IP address of node, and port to listen on
address 192.168.1.102:7789;
# use internal meta data (don't create a filesystem before
# you create metadata!)
meta-disk internal;
}
}
aqui é o cat / proc / drbd
cat: /proc/data: No such file or directory
[root@node1 /]# cat /proc/drbd
version: 8.3.16 (api:88/proto:86-97)
GIT-hash: a798fa7e274428a357657fb52f0ecf40192c1985 build by phil@Build64R6, 2013-09-27 16:00:43
0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r-----
ns:543648 nr:0 dw:265088 dr:280613 al:107 bm:25 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:7848864
[>...................] sync'ed: 6.5% (7664/8188)M
finish: 7:47:11 speed: 272 (524) K/sec
copiei um arquivo para / data no nó 1, mas não consigo encontrar o arquivo em / date no node2, alguém pode ajudar?
status drbd no node1
[root@node1 /]# service drbd status
drbd driver loaded OK; device status:
version: 8.3.16 (api:88/proto:86-97)
GIT-hash: a798fa7e274428a357657fb52f0ecf40192c1985 build by phil@Build64R6, 2013-09-27 16:00:43
m:res cs ro ds p mounted fstype
0:data SyncSource Primary/Secondary UpToDate/Inconsistent C /data ext3
... sync'ed: 8.1% (7536/8188)M
DRBD significa Dispositivo de Bloco Replicado Distribuído. Não é um sistema de arquivos.
Se você gravar um arquivo em seu nó primário, o sistema de arquivos emitirá operações de gravação. Na camada logo abaixo, o DRBD garante que essas gravações sejam replicadas em um nó secundário. Para o nó secundário, essas gravações aparecem apenas como blocos de dados. Para que ele veja arquivos, você normalmente terá que desmontar sua partição no nó primário e montá-lo no nó secundário.
Existe uma solução para o que você deseja alcançar. Para isso, você precisará de um sistema de arquivos em cluster. Esse sistema de arquivos permite que você tenha a partição montada em dois nós ao mesmo tempo. Com sistemas de arquivos comumente usados, como o ext4, isso não é possível.
Um exemplo de tal sistema de arquivos de cluster que funciona em cima do DRBD é o OCFS2. Para usar este sistema de arquivos e ter a partição montada em ambos os servidores ao mesmo tempo, seu recurso DRBD precisará ser configurado no modo principal duplo. Isso significa que não há um nó primário. Ambos os nós têm permissão para gravar no recurso ao mesmo tempo. O sistema de arquivos do cluster garante que os dados gravados sejam consistentes.
Tags drbd