您的位置:首页 > 运维架构 > Linux

Centos5.6 x86下部署安装DRBD+Heartbeat+MySQL

2012-11-28 05:36 671 查看
服务器平台是Dell R410,系统采用的Centos5.6 x86_64,系统盘采用的是Raid1,然后单独拿了一块SAS 500G的硬盘出来准备给DRBD系统用, 这里没有采用单独分区的做法,这是因为在测试中我们发现,单独分区做为DRBD系统使用时,经常有如下报错(以下数据采集来自于实验环境)。特与大家分享。

AD:

【51CTO独家特稿】报错信息如下所示:

Operation refused.

Command 'drbdmeta 0 v08 /dev/sda2 internal create-md' terminated with exit code 40

drbdadm create-md r0: exited with code 40

这个时候我们需要使用dd命令覆盖文件系统中的设备块信息,如下所示:

dd if=/dev/zero of=/dev/sda2 bs=1M count=128

这个时候请一定要注意dd命令要清除的分区信息,不要搞错了,不然很容易将系统损坏,我第一次实验时就遇到了这个问题;如果部署DRBD时的分区信息是不需要写进/etc/fstab表的,即不需要在安装系统时就挂载,不然重启系统时很容易发生Emergency信息,签于以上情况,所以我这里建议大家还是用独立硬盘作为DRBD的设备。

两台机器的基本情况如下所示:

centos1.cn7788.com 192.168.11.32

centos2.cn7788.com 192.168.11.33

Heartbeat的vip为 192.168.11.30

两台机器的hosts文件内容如下所示:

192.168.11.32 centos1.cn7788.com centos1

192.168.11.33 centos2.cn7788.com centos2

实验中暂时先用千M交换机的网络作为心跳线线路,等实验搭建成功后再考虑加双绞线作为心跳线,两台机器的hostname及ntp对时这些在实验前就应该配置好,iptables和SElinux关闭,具体情况略过。

一、DRBD的部署安装

两台机器分别用如下命令来安装drbd软件,如下所示:

yum -y install drbd83 kmod-drbd83

modprobe drbd

lsmod | grep drbd

正确显示如下类似信息,表示DRBD已成功安装:

drbd 300440 4

两台机器的drbd.conf配置文件内容如下所示(两台机器的配置是一样的):

cat /etc/drbd.conf

global {

# minor-count dialog-refresh disable-ip-verification

usage-count no; #统计drbd的使用

}

common {

syncer { rate 30M; } #同步速率,视带宽而定

}

resource r0 { #创建一个资源,名字叫”r0”

protocol C; #选择的是drbd的C 协议(数据同步协议,C为收到数据并写入后返回,确认成功)

handlers { #默认drbd的库文件

pri-on-incon-degr "/usr/lib/drbd/notify-pri-on-incon-degr.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";

pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";

local-io-error "/usr/lib/drbd/notify-io-error.sh;

/usr/lib/drbd/notify-emergency-shutdown.sh; echo o > /proc/sysrq-trigger ; halt -f";

# fence-peer "/usr/lib/drbd/crm-fence-peer.sh";

# split-brain "/usr/lib/drbd/notify-split-brain.sh root";

# out-of-sync "/usr/lib/drbd/notify-out-of-sync.sh root";

# before-resync-target "/usr/lib/drbd/snapshot-resync-target-lvm.sh -p 15 -- -c 16k";

# after-resync-target /usr/lib/drbd/unsnapshot-resync-target-lvm.sh;

}

startup {

# wfc-timeout degr-wfc-timeout outdated-wfc-timeout wait-after-sb

wfc-timeout 120;

degr-wfc-timeout 120;

}

disk {

# on-io-error fencing use-bmbv no-disk-barrier no-disk-flushes

# no-disk-drain no-md-flushes max-bio-bvecs

on-io-error detach;

}

net {

# sndbuf-size rcvbuf-size timeout connect-int ping-int ping-timeout max-buffers

# max-epoch-size ko-count allow-two-primaries cram-hmac-alg shared-secret

# after-sb-0pri after-sb-1pri after-sb-2pri data-integrity-alg no-tcp-cork

max-buffers 2048;

cram-hmac-alg "sha1";

shared-secret "123456";

#DRBD同步时使用的验证方式和密码信息

#allow-two-primaries;

}

syncer {

rate 100M;

# rate after al-extents use-rle cpu-mask verify-alg csums-alg

}

on centos1.cn7788.com { #设定一个节点,分别以各自的主机名命名

device /dev/drbd0; #设定资源设备/dev/drbd0 指向实际的物理分区 /dev/sdb

disk /dev/sdb;

address 192.168.11.32:7788; #设定监听地址以及端口

meta-disk internal;

}

on centos2.cn7788.com { #设定一个节点,分别以各自的主机名命名

device /dev/drbd0; #设定资源设备/dev/drbd0 指向实际的物理分区 /dev/sdb

disk /dev/sdb;

address 192.168.11.33:7788; #设定监听地址以及端口

meta-disk internal; #internal表示是在同一个局域网内

}

}

1.创建DRBD元数据信息,执行命令如下所示(两台机器都需要执行此步):

[root@centos1 ~]# drbdadm create-md r0

md_offset 8589930496

al_offset 8589897728

bm_offset 8589635584

Found some data

==> This might destroy existing data! <==

Do you want to proceed?

[need to type 'yes' to confirm] yes

Writing meta data...

initializing activity log

NOT initialized bitmap

New drbd meta data block successfully created.

[root@centos2 ~]# drbdadm create-md r0

md_offset 8589930496

al_offset 8589897728

bm_offset 8589635584

Found some data

==> This might destroy existing data! <==

Do you want to proceed?

[need to type 'yes' to confirm] yes

Writing meta data...

initializing activity log

NOT initialized bitmap

New drbd meta data block successfully created.

2.启动DRBD设备,两台机器上分别执行如下命令:

service drbd start

3.在centos1的机器上我们查看DRBD状态,命令如下所示:

[root@centos1 ~]# service drbd status

drbd driver loaded OK; device status:

version: 8.3.13 (api:88/proto:86-96)

GIT-hash: 83ca112086600faacab2f157bc5a9324f7bd7f77 build by mockbuild@builder10.centos.org, 2012-05-07 11:56:36

m:res cs ro ds p mounted fstype

0:r0 Connected Secondary/Secondary Inconsistent/Inconsistent C

4.将centos1的机器作为DRBD的Primary机器,命令如下所示:

[root@centos1 ~]# drbdsetup /dev/drbd0 primary -o

[root@centos1 ~]# drbdadm primary r0

然后我们再查看其状态,命令如下所示:

[root@centos1 ~]# service drbd status

drbd driver loaded OK; device status:

version: 8.3.13 (api:88/proto:86-96)

GIT-hash: 83ca112086600faacab2f157bc5a9324f7bd7f77 build by mockbuild@builder10.centos.org, 2012-05-07 11:56:36

m:res cs ro ds p mounted fstype

... sync'ed: 3.9% (7876/8188)M

0:r0 SyncSource Primary/Secondary UpToDate/Inconsistent C

我们发现,Primary/Secondary关系已形成,而且数据在进行同步,已同步了3.9%,我们稍为等待段时间,再查看Primary机器的DRBD状态,如下所示:

[root@centos1 ~]# service drbd status

drbd driver loaded OK; device status:

version: 8.3.13 (api:88/proto:86-96)

GIT-hash: 83ca112086600faacab2f157bc5a9324f7bd7f77 build by mockbuild@builder10.centos.org, 2012-05-07 11:56:36

m:res cs ro ds p mounted fstype

0:r0 Connected Primary/Secondary UpToDate/UpToDate C

UpToDate/UpToDate表示数据已经同步完成了。

5.在两台机器上都建立/drbd分区,准备将其作为MySQL的挂载目录,命令如下所示:

mkdir /drbd

6.格式化Primary机器的DRBD分区并挂载使用。

mkfs.ext3 /dev/drbd0

mount /dev/drbd0 /drbd/

注:Secondary节点上是不允许对DRBD设备进行任何操作,包括只读,所以的读写操作都只能在Primary节点上进行,只有当Primary节点挂掉时,Secondary代替主节点作为Primary节点时才能进行读写操作。

7.两台机器都将DRBD设为自启动服务,命令如下:

chkconfig drbd on

二、Heartbeat的安装和部署

1.两台机器上分别用yum来安装heartbeat,如下命令操作二次:

yum -y install heartbeat

如果你只操作一次,你会惊奇的发现,heartbeat第一次时并没有安装成功。

2.两个节点的heartbeat配置文件,分别如下所示:

centos1.cn7788.com的配置文件:

logfile /var/log/ha-log

#定义Heartbeat的日志名字及位置

logfacility local0

keepalive 2

#设定心跳(监测)时间为2秒

deadtime 15

#设定死亡时间为15秒

ucast eth0 192.168.11.33

#采用单播的方式,IP地址指定为对方IP

auto_failback off

#当Primary机器发生故障切换到Secondary机器后不再进行切回操作

node centos1.cn7788.com centos2.cn7788.com

centos2.cn7788.com的配置文件:

logfile /var/log/ha-log

logfacility local0

keepalive 2

deadtime 15

ucast eth0 192.168.11.32

auto_failback off

node centos1.cn7788.com centos2.cn7788.com

3.编辑双机互连验证文件authkeys,如下所示:

cat /etc/ha.d/authkeys

auth 1

1 crc

需要将此文件设定为600权限,不然启动heartbeat服务时会报错,命令如下所示:

chmod 600 /etc/ha.d/authkeys

4.编辑集群资源文件/etc/ha.d/haresource

centos1.rogrand.com IPaddr::192.168.11.30/24/eth0 drbddisk::r0 Filesystem::/dev/drbd0::/drbd::ext3 mysqld

这个文件在两台机器上都是一样的,这个就不要轻易改动了。

mysqld为mysql服务器启动、重启及关闭脚本,这个是安装MySQL自带的,我们等会会在安装MySQL提到此步。

三、源码编译安装mysql5.1.47并部署haresource

1.在MySQL官方网站上下载mysql5.1.47的源码包,在两台机器上分别安装,具体步骤如下所示:

安装gcc等基础库文件

yum install gcc gcc-c++ zlib-devel libtool ncurses-devel libxml2-devel

生成mysql用户及用户组

groupadd mysql

useradd -g mysql mysql

源码编译安装mysql5.1.47

tar zxvf mysql-5.1.47.tar.gz

cd mysql-5.1.47

./configure --prefix=/usr/local/mysql --with-charset=utf8 --with-extra-charsets=all --enable-thread-safe-client --enable-assembler --with-readline --with-big-tables --with-plugins=all --with-mysqld-ldflags=-all-static --with-client-ldflags=-all-static

make

make install

2.对mysql进行权限配置,使其能顺利启动。

cd /usr/local/mysql

cp /usr/local/mysql/share/mysql/my-medium.cnf /etc/my.cnf

cp /usr/local/mysql/share/mysql/mysql.server /etc/init.d/mysqld

cp /usr/local/mysql/share/mysql/mysql.server /etc/ha.d/resource.d/mysqld

chmod +x /etc/init.d/mysqld

chmod +x /etc/ha.d/resource.d/mysqld

chown -R mysql:mysql /usr/local/mysql

3.两台机器上的/etc/my.cnf的[mysqld]项下面重新配置下mysql运行时的数据存放路径

datadir=/drbd/data

4.在Primary机器上运行如下命令,使其数据库目录生成数据,Secondary机器不需要运行此步。

/usr/local/mysql/bin/mysql_install_db --user=mysql --datadir=/drbd/data

注意:这里是整个实验环境的一个重要环节,我起初在搭建此步时出过几次问题,我们运行MySQL是在启动DRBD设备之后,即正确将/dev/drbd0目录正确挂载到/drbd目录,而并非没挂载就去启动MySQL,这会导致整个实验完全失败,大家做到此步时请注意。做完这步以后,我们不需要启动MySQL,它可以靠脚本来启动,如果已经启动了MySQL请手动关闭。

四、在两台机器上将DRBD和Heartbeat都设成自启动方式

service drbd start

chkcfonig drbd on

service heartbeat start

chkconfig heartbeat on

通过观察Primary机器上的信息,我们得知,Primary机器已经正确启动了MySQL和Heartbaet了,信息如下所示:

[root@centos1 data]# ip addr

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue

link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00

inet 127.0.0.1/8 scope host lo

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000

link/ether 00:0c:29:48:2e:9f brd ff:ff:ff:ff:ff:ff

inet 192.168.11.32/24 brd 192.168.11.255 scope global eth0

inet 192.168.11.30/24 brd 192.168.11.255 scope global secondary eth0:0

通过查看到3306端口被占用情况,我们得知mysql服务已被正常开启。

[root@centos1 data]# lsof -i:3306

COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME

mysqld 4341 mysql 18u IPv4 9807 TCP *:mysql (LISTEN)

五、其余的工作其实就比较好测试了,我们主要是模拟Primary机器重启或死机时,看Secondary机器能不能自动接管过来并启动MySQL,我们重启Primary机器后在Secondary机器上观察,命令如下所示:

IPaddr[3050]: 2012/09/04_09:51:24 INFO: Resource is stopped

ResourceManager[3023]: 2012/09/04_09:51:24 info: Running /etc/ha.d/resource.d/IPaddr 192.168.11.30/24/eth0 start

IPaddr[3149]: 2012/09/04_09:51:25 INFO: Using calculated netmask for 192.168.11.30: 255.255.255.0

IPaddr[3149]: 2012/09/04_09:51:26 INFO: eval ifconfig eth0:0 192.168.11.30 netmask 255.255.255.0 broadcast 192.168.11.255

IPaddr[3119]: 2012/09/04_09:51:26 INFO: Success

heartbeat[2842]: 2012/09/04_09:51:26 WARN: Late heartbeat: Node centos1.rogrand.com: interval 3510 ms

ResourceManager[3023]: 2012/09/04_09:51:26 info: Running /etc/ha.d/resource.d/drbddisk r0 start

Filesystem[3300]: 2012/09/04_09:51:27 INFO: Resource is stopped

ResourceManager[3023]: 2012/09/04_09:51:27 info: Running /etc/ha.d/resource.d/Filesystem /dev/drbd0 /drbd ext3 start

Filesystem[3382]: 2012/09/04_09:51:28 INFO: Running start for /dev/drbd0 on /drbd

Filesystem[3370]: 2012/09/04_09:51:28 INFO: Success

ResourceManager[3023]: 2012/09/04_09:51:29 info: Running /etc/ha.d/resource.d/mysqld start

mach_down[2997]: 2012/09/04_09:51:31 info: /usr/share/heartbeat/mach_down: nice_failback: foreign resources acquired

mach_down[2997]: 2012/09/04_09:51:31 info: mach_down takeover complete for node centos1.rogrand.com.

heartbeat[2842]: 2012/09/04_09:51:31 info: mach_down takeover complete.

heartbeat[2842]: 2012/09/04_09:51:32 WARN: node centos1.rogrand.com: is dead

heartbeat[2842]: 2012/09/04_09:51:32 info: Dead node centos1.rogrand.com gave up resources.

heartbeat[2842]: 2012/09/04_09:51:35 info: Link centos1.rogrand.com:eth0 dead.

稍等片刻我们会发现,Secondary机器会自动接管VIP,并启动MySQL服务,如下所示:

[root@centos2 data]# ip addr

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue

link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00

inet 127.0.0.1/8 scope host lo

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000

link/ether 00:0c:29:34:ee:af brd ff:ff:ff:ff:ff:ff

inet 192.168.11.33/24 brd 192.168.11.255 scope global eth0

inet 192.168.11.30/24 brd 192.168.11.255 scope global secondary eth0:0

实施整个过程需要注意有以下几点:

一、Secondary主机用来做DRBD的硬盘可以跟Primar主机的不一样大小,但请不要小于Primary主机,以免发生数据丢失的现象;

二、服务器网卡及交换机我都推荐千M系列的,在测试中发现其同步速率介于100M-200M之间,这里采用官方的建议,以最小值的30%带宽来设置rate速率,即100M*30%,大家也可根据自己的实际网络环境来设定此值;

三、DRBD对网络环境要求很高,建议用单独的双绞线来作为二台主机之间的心跳线,如果条件允许,可以考虑用二根以上的心跳线;如果这个环节做得好,基本上脑裂的问题是不存在的。其实整个实验初期都可以在同一网络下实现,后期再加心跳线也是可行的。

四、安装Heartbeat时需要安装二遍,即yum -y install heartbeat要执行二次;

五、建议不要用根分区作为MySQL的datadir,不然你show database时会发现会出现名为#mysql50#lost+found的数据库,这也是我将MySQL的数据库目录设置成/drbd/data的原因。

六、就算发生脑裂的问题,DRBD也不会丢失数据的,手动解决就是;正因为DRBD可靠,MySQL也推荐将其作为MySQL实现高可用方案之一。

七、MySQL的DRBD此方案不能达到毫秒级的切换速度,MyISAM引擎的表在系统宕机后需要很长的修复时间,而且也有可能发生表损坏的情况,建议大家将所有除了系统表之外的所有表引擎改为InnoDB引擎。

作者微博:weibo.com/yuhongchun027

作者博客:andrewyu.blog.51cto.com

【编辑推荐】

MySQL源码学习:MDL字典锁

MySQL Cluster开发环境简明部署

MySQL的四种不同查询的分析

MySQL的四种不同查询的分析

MySQL内存表的特性与使用介绍
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: