estou tentando aprender drbd com centoOS 6.3 na caixa virtual, tenho duas vm configuradas, o node1 e o node2, copio o arquivo para o ponto de montagem /data que é /dev/drbd0 do node1, mas não reflete no /dados do nó2
aqui está a configuração
# You can find an example in /usr/share/doc/drbd.../drbd.conf.example
#include "drbd.d/global_common.conf";
#include "drbd.d/*.res";
global {
# do not participate in online usage survey
usage-count no;
}
resource data {
# write IO is reported as completed if it has reached both local
# and remote disk
protocol C;
net {
# set up peer authentication
cram-hmac-alg sha1;
shared-secret "s3cr3tp@ss";
# default value 32 - increase as required
max-buffers 512;
# highest number of data blocks between two write barriers
max-epoch-size 512;
# size of the TCP socket send buffer - can tweak or set to 0 to
# allow kernel to autotune
sndbuf-size 0;
}
startup {
# wait for connection timeout - boot process blocked
# until DRBD resources are connected
wfc-timeout 30;
# WFC timeout if peer was outdated
outdated-wfc-timeout 20;
# WFC timeout if this node was in a degraded cluster (i.e. only had one
# node left)
degr-wfc-timeout 30;
}
disk {
# the next two are for safety - detach on I/O error
# and set up fencing - resource-only will attempt to
# reach the other node and fence via the fence-peer
# handler
#on-io-error detach;
#fencing resource-only;
# no-disk-flushes; # if we had battery-backed RAID
# no-md-flushes; # if we had battery-backed RAID
# ramp up the resync rate
# resync-rate 10M;
}
handlers {
# specify the two fencing handlers
# see: http://www.drbd.org/users-guide-8.4/s-pacemaker-fencing.html
fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";
}
# first node
on node1 {
# DRBD device
device /dev/drbd0;
# backing store device
disk /dev/sdb;
# IP address of node, and port to listen on
address 192.168.1.101:7789;
# use internal meta data (don't create a filesystem before
# you create metadata!)
meta-disk internal;
}
# second node
on node2 {
# DRBD debice
device /dev/drbd0;
# backing store device
disk /dev/sdb;
# IP address of node, and port to listen on
address 192.168.1.102:7789;
# use internal meta data (don't create a filesystem before
# you create metadata!)
meta-disk internal;
}
}
aqui está o gato /proc/drbd
cat: /proc/data: No such file or directory
[root@node1 /]# cat /proc/drbd
version: 8.3.16 (api:88/proto:86-97)
GIT-hash: a798fa7e274428a357657fb52f0ecf40192c1985 build by phil@Build64R6, 2013-09-27 16:00:43
0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r-----
ns:543648 nr:0 dw:265088 dr:280613 al:107 bm:25 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:7848864
[>...................] sync'ed: 6.5% (7664/8188)M
finish: 7:47:11 speed: 272 (524) K/sec
copiei um arquivo para /data no nó 1, mas não consigo encontrar o arquivo em /date no nó2, alguém pode ajudar?
status do drbd no nó1
[root@node1 /]# service drbd status
drbd driver loaded OK; device status:
version: 8.3.16 (api:88/proto:86-97)
GIT-hash: a798fa7e274428a357657fb52f0ecf40192c1985 build by phil@Build64R6, 2013-09-27 16:00:43
m:res cs ro ds p mounted fstype
0:data SyncSource Primary/Secondary UpToDate/Inconsistent C /data ext3
... sync'ed: 8.1% (7536/8188)M
DRBD significa Distributed Replicated Block Device. Não é um sistema de arquivos.
Se você gravar um arquivo em seu nó primário, o sistema de arquivos emite operações de gravação. Na camada logo abaixo, o DRBD garante que essas gravações sejam replicadas para um nó secundário. Para o nó secundário, essas gravações aparecem apenas como blocos de dados. Para que ele veja os arquivos, você normalmente terá que desmontar sua partição no nó primário e montá-la no nó secundário.
No entanto, existe uma solução para o que você deseja alcançar. Para isso, você precisará de um sistema de arquivos em cluster. Esse sistema de arquivos permite que você tenha a partição montada em dois nós ao mesmo tempo. Com sistemas de arquivos comumente usados, como ext4, isso não é possível.
Um exemplo de um sistema de arquivos de cluster que funciona sobre o DRBD é o OCFS2. Para usar este sistema de arquivos e ter a partição montada em ambos os servidores ao mesmo tempo, seu recurso DRBD precisará ser configurado no modo primário duplo. Isso significa que não há nó primário. Ambos os nós têm permissão para gravar no recurso ao mesmo tempo. O sistema de arquivos do cluster garante que os dados gravados sejam consistentes.
Prove que estou errado, mas IIRC você só pode montar um FS em um dos nós ao mesmo tempo. Faça com que eles sincronizem, desmonte /data. Switch-over, monte-o no node2 e você deverá ver todos os dados.